En el mundo tecnológico se ha desatado un intenso debate sobre qué significa realmente que una Inteligencia Artificial (IA) sea «abierta».
Recientemente, la organización Software in the Public Interest (OSI) propuso una definición que exige transparencia sobre los datos de entrenamiento, pero no su acceso público. Esta postura ha sido duramente criticada por expertos como Bradley M. Kuhn, líder de la Software Freedom Conservancy (SFC), quien advierte que sin acceso completo a los datos no es posible estudiar, auditar ni modificar la IA, lo que va en contra de los principios fundamentales del Software Libre.
Kuhn y otros defensores del código abierto sostienen que esta definición debería ser solo una recomendación, pues limita las libertades clásicas de estudiar y modificar el software, poniendo en riesgo la transparencia y la colaboración que caracterizan al movimiento.
Ronald Delgado y la soberanía tecnológica: una mirada crítica desde Venezuela
A propósito de este debate global, en Venezuela el tema también ha sido objeto de análisis profundo. En un conversatorio organizado por el Centro Nacional de Tecnologías de Información (CNTI), el físico computacional y especialista en IA, Ronald Delgado, lanzó una crítica directa al modelo actual de desarrollo de IA, poniendo en evidencia la contradicción entre el discurso de “apertura” y la realidad de las herramientas más avanzadas del sector.
Delgado explicó que sistemas como ChatGPT (OpenAI) y Gemini (Google), aunque accesibles públicamente mediante API o interfaces web, no pueden considerarse verdaderamente abiertos. “Son modelos cerrados, con licencias comerciales. No tenemos acceso ni al código fuente ni a los datos de entrenamiento”, señaló.
Asimismo, destacó la ironía de que estos modelos se ejecuten sobre infraestructuras basadas en tecnologías abiertas —como servidores Linux o librerías TensorFlow y PyTorch— mientras que los productos finales permanecen bajo estrictas restricciones de uso. Además, hizo referencia a iniciativas como Mistral o DeepSeek que, si bien se autodenominan «abiertas» y permiten la descarga y uso de sus modelos de lenguaje para inferencia de manera local, lo cual es muy beneficioso para el ecosistema mundial de IA, aún así no dan acceso al código fuente ni a los datos de entrenamiento necesarios para auditar, modificar o reentrenar los sistemas. En sus palabras, «eso no es realmente open source».
Delgado también advirtió sobre los riesgos y dilemas éticos que genera la apertura total de los modelos de IA. Señaló que, aunque liberar completamente el código de sistemas como GPT podría fomentar la transparencia, también existe el peligro de que esta tecnología caiga en manos de actores malintencionados. Por eso, reconoció que las empresas tienen el derecho legítimo de proteger su propiedad intelectual, especialmente cuando la IA es el núcleo de su negocio, lo que genera una tensión natural entre la apertura tecnológica y la seguridad global.
Por otro lado, Delgado mencionó Scikit-learn como ejemplo positivo, una biblioteca de aprendizaje automático que sí cumple con los principios del Software Libre, permitiendo el estudio, modificación y reutilización completa del código.
Para finalizar, Delgado señaló que en un contexto donde la IA avanza rápidamente y su impacto social es profundo, es importante redefinir el concepto de apertura en la IA y a sostener un debate urgente sobre transparencia, responsabilidad y derechos digitales.
El conversatorio completo con el especialista Ronald Delgado lo podrás encontrar en el siguiente enlace: https://youtu.be/E-MDnKVlo68?si=P8K46TjdbVJ50RaI
Con información de https://blog.desdelinux.net/el-lider-de-la-sfc-quiere-anular-el-termino-ia-de-codigo-abierto/