Evolución de CUDA y los nuevos paradigmas de programación paralela
DOI:
https://doi.org/10.62452/wq0t2e62Palavras-chave:
Programación paralela, computación de alto rendimiento, aprendizaje profundo, simulación científica, Inteligencia artificial, arquitecturas híbridasResumo
El presente artículo analizó la evolución de CUDA (Compute Unified Device Architecture) y su impacto en los paradigmas de programación paralela, con el propósito de explorar sus contribuciones al ámbito de la computación de alto rendimiento y los retos que enfrenta ante las tendencias tecnológicas emergentes. La investigación empleó una metodología basada en la revisión sistemática de literatura científica y técnica, complementada con un análisis comparativo de CUDA frente a otros modelos de programación paralela, como OpenCL y SYCL. Además, se realizaron consultas estructuradas a expertos mediante el método Delphi, lo que permitió integrar perspectivas cualitativas sobre las tendencias actuales y futuras de esta tecnología. Los resultados destacaron que CUDA ha sido determinante en áreas como el aprendizaje profundo, la simulación científica y la inteligencia artificial, al proporcionar herramientas especializadas que optimizan el rendimiento computacional y mejoran la eficiencia en sistemas basados en GPU de NVIDIA. Sin embargo, se identificaron desafíos significativos, como su dependencia exclusiva de hardware propietario, la necesidad de mejorar su portabilidad hacia plataformas heterogéneas y la sostenibilidad energética en aplicaciones de gran escala. Las conclusiones recalcaron la importancia de adaptar CUDA a paradigmas más abstractos y automatizados, facilitando su integración en arquitecturas híbridas y entornos de computación distribuida. La investigación aportó un análisis novedoso al resaltar la evolución y las posibilidades de CUDA como tecnología clave en la programación paralela, reforzando su relevancia para el desarrollo de soluciones computacionales que aborden problemas complejos en ciencia e ingeniería.
Downloads
Referências
Alves de Araujo, G. (2022). Data and stream parallelism optimizations on GPUs [Tesis de Maestría. Pontifícia Universidade Católica do Rio Grande do Sul].
Breyer, M., Van Craen, A., & Pflüger, D. (2022). A comparison of sycl, opencl, cuda, and openmp for massively parallel support vector machine classification on multi-vendor hardware. Proceedings of the 10th International Workshop on OpenCL. Bristol, United Kingdom .
Caicedo Goyes, F. L. (2024). Exploración de estrategias avanzadas en computación de alto rendimiento: Un Análisis Integral y Perspectivas Emergentes. REVISTA ODIGOS, 5(2), 9–32. https://doi.org/10.35290/ro.v5n2.2024.1174
Calatayud, R., Navarro-Modesto, E., Navarro-Camba, E. A., & Sangary, N. T. (2020). Nvidia CUDA parallel processing of large FDTD meshes in a desktop computer: FDTD-matlab on GPU. Proceedings of the 10th Euro-American Conference on Telematics and Information Systems. Aveiro, Portugal.
Fernandes, D. F., Santos, M. C., Silva, A. C., & Lima, A. M. M. (2024). Comparative study of CUDA-based parallel programming in C and Python for GPU acceleration of the 4th order Runge-Kutta method. Nuclear Engineering and Design, 421, 113050. https://doi.org/10.1016/j.nucengdes.2024.113050
Flor Damiá, J. (2023). Realidad aumentada e Inteligencia Artificial en un entorno de Tactile Internet [Tesis de Grado. Universitat Politècnica de València]. https://riunet.upv.es/handle/10251/195532
Hijma, P., Heldens, S., Sclocco, A., Van Werkhoven, B., & Bal, H. E. (2023). Optimization techniques for GPU programming. ACM Computing Surveys, 55(11), 1–81. https://dl.acm.org/doi/full/10.1145/3570638
Kim, D., Kim, I., & Kim, J. (2022). Analysis of Sub-Routines in NVIDIA cuBLAS Library for a series of Matrix-Matrix Multiplications in Transformer. 2022 13th International Conference on Information and Communication Technology Convergence (ICTC). Jeju Island, Korea.
Miguel López, S. (2021). Celerity: el futuro de la programación paralela en memoria distribuida [Tesis de Maestría, Universidad de Valladolid].
Moya Jiménez, M. Á. 2021). Soporte de Comunicación Eficiente en Plataforma de Entrenamiento Distribuido de Redes Neuronales [Tesis de Grado. Universitat Politècnica de València].
Muñoz, F., Asenjo, R., Navarro, A., & Cabaleiro, J. C. (2024). CPU and GPU oriented optimizations for LiDAR data processing. Journal of Computational Science, 79, 102317. https://doi.org/10.1016/j.jocs.2024.102317
Pang, W., Luo, X., Chen, K., Ji, D., Qiao, L., & Yi, W. (2023). Efficient CUDA stream management for multi-DNN real-time inference on embedded GPUs. Journal of Systems Architecture, 139, 102888. https://doi.org/10.1016/j.sysarc.2023.102888
Rockenbach, D. A., Araujo, G., Griebler, D., & Fernandes, L. G. (2025). GSParLib: A multi-level programming interface unifying OpenCL and CUDA for expressing stream and data parallelism. Computer Standards & Interfaces, 92, 103922. https://doi.org/10.1016/j.csi.2024.103922
Valencia Pérez, T. A. (2020). Implementación de algoritmos de reconstrucción tomográfica mediante programación paralela (CUDA) [Tesis de doctorado, Benemérita Universidad Autónoma de Puebla].
Yanez Soffia, M. A. (2023). Análisis sobre modelos predictores de depresión mediante la interpretación de lenguaje natural a partir de textos usando machine learning [Tesis de Grado. ETSI_Informatica. Universidad Politécnica de Madrid].
Yoshida, K., Miwa, S., Yamaki, H., & Honda, H. (2024). Analyzing the impact of CUDA versions on GPU applications. Parallel Computing, 120, 103081. https://doi.org/10.1016/j.parco.2024.103081
Zhuo, Y., Zhang, T., Du, F., & Liu, R. (2023). A parallel particle swarm optimization algorithm based on GPU/CUDA. Applied Soft Computing, 144, 110499. https://doi.org/10.1016/j.asoc.2023.110499
Downloads
Publicado
Edição
Seção
Licença
Copyright (c) 2025 Luis Javier Molina-Chalacán, Edmundo José Jalón-Arias, Luis Orlando Albarracín-Zambrano (Autor/a)

Este trabalho está licenciado sob uma licença Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
Os autores que publicam na Revista Metropolitana de Ciencias Aplicadas (REMCA), concordam com os seguintes termos:
1. Direitos autorais
Os autores mantêm direitos autorais irrestritos sobre suas obras. Os autores concedem ao periódico o direito de primeira publicação. Para tal, cedem à revista, em caráter não exclusivo, direitos de exploração (reprodução, distribuição, comunicação pública e transformação). Os autores podem firmar acordos adicionais para a distribuição não exclusiva da versão publicada do trabalho no periódico, desde que haja reconhecimento de sua publicação inicial nesta revista.
© Os autores.
2. Licença
Os trabalhos são publicados na revista sob a licença Creative Commons Atribuição-NãoComercial-CompartilhaIgual 4.0 Internacional (CC BY-NC-SA 4.0). Os termos podem ser encontrados em: https://creativecommons.org/licenses/by-nc-sa/4.0/deed.pt
Esta licença permite:
- Compartilhar: copiar e redistribuir o material em qualquer meio ou formato.
- Adaptar: remixar, transformar e desenvolver o material.
Nos seguintes termos:
- Atribuição: Você deve dar o crédito apropriado, fornecer um link para a licença e indicar se alguma alteração foi feita. Você pode fazer isso de qualquer maneira razoável, mas não de uma forma que sugira que o licenciante endossa ou patrocina seu uso.
- Não comercial: você não pode usar o material para fins comerciais.
- Compartilhamento pela mesma licença: se você remixar, transformar ou criar a partir do material, deverá distribuir sua criação sob a mesma licença do trabalho original.
Não há restrições adicionais. Você não pode aplicar termos legais ou medidas tecnológicas que restrinjam legalmente outros de fazerem qualquer coisa que a licença permita.