Históricamente, la investigación de la Inteligencia Artificial (IA) estuvo centrada en las universidades. Sin embargo, según Wayne Holmes, profesor asociado en la Universidad Pública de Londres y especialista en IA y contextos educativos, el costo de estas investigaciones ha crecido tanto que las instituciones educativas no pueden seguir haciéndolo.
Actualmente, el desarrollo e investigación de la IA está en manos de las grandes compañías tecnológicas como Meta, Google, Microsoft y OpenAI, relegando a las universidades a un segundo plano.
Edmond Awad, profesor en el Instituto de ciencias de datos e Inteligencia Artificial en la Universidad de Exeter, advierte sobre el riesgo del monopolio de la información en estas empresas. Se desconoce lo que realmente está sucediendo en los modelos de IA y se están moviendo muy rápido.
La falta de transparencia es uno de los problemas principales en la investigación de la IA. Existen pocos estudios académicos sobre el tema y la mayoría de ellos fueron realizados por grandes empresas tecnológicas como Microsoft.
Q. Vera Liao, investigadora principal en el Centro de Investigación de Microsoft en Montreal, ha estudiado la transparencia en la IA. En su investigación, habla sobre los “LLM”, que son modelos de inteligencia artificial entrenados para comprender y generar lenguaje humano de manera avanzada.
Liao destaca que los LLMs desarrollados por grandes empresas tecnológicas son opacos y no se comparte públicamente su funcionamiento interno. Esta falta de transparencia plantea desafíos para la comunidad de investigación.
Transparencia: la eterna deuda de las Big Techs
OpenAI, la empresa madre de ChatGPT y Dall-e, comenzó como una ONG de investigación con el propósito de compartir sus investigaciones en IA. Sin embargo, desde su adquisición por parte de Microsoft, la empresa ha perdido esta visión inicial.
Actualmente, OpenAI se autodenomina una empresa de “beneficios limitados” cuyo propósito es asegurar que la inteligencia artificial general (IAG) beneficie a toda la humanidad. Sin embargo, ya no mencionan nada acerca de las investigaciones.
Elon Musk, fundador de OpenAI, ha destacado este cambio de enfoque en un tuit. OpenAI fue creada como una empresa sin fines de lucro de código abierto para contrarrestar a Google, pero ha evolucionado y ha dejado de ser transparente en sus investigaciones.
Referencias:
– Wayne Holmes, profesor asociado en la Universidad Pública de Londres.
– Edmond Awad, profesor en el Instituto de ciencias de datos e Inteligencia Artificial en la Universidad de Exeter.
– Q. Vera Liao, investigadora principal en el Centro de Investigación de Microsoft en Montreal.
– Elon Musk, fundador de OpenAI.
Fuentes:
– [Fuente sin URL]
– [Fuente sin URL]