La inteligencia artificial puede mejorar la eficiencia en la realización de investigaciones académicas, aportar perspectivas novedosas y perfeccionar los análisis realizados.
La inteligencia artificial se utiliza cada vez más y se perfecciona continuamente, volviéndose prácticamente inevitable en diversas actividades. Una de las áreas polémicas en las que se aplica es la investigación académica. Según el Informe Anual de IA en la Educación, la tecnología no debería ser vista como una amenaza para la investigación, sino como una aliada en la búsqueda de nuevas respuestas.
A pesar de las preocupaciones iniciales sobre el plagio en el contexto de la inteligencia artificial en la educación, surge la pregunta de cómo puede realmente la IA contribuir a la investigación y qué beneficios puede aportar a la academia.
¿Cómo incorporar la IA en la investigación?
Según el informe anual de la IA, haciendo referencia a la investigación “Artificial Intelligence Index Report 2023” de la Universidad de Stanford, se plantea que la IA está emergiendo como “el mejor nuevo científico del mundo”, destacando su papel en acelerar el progreso científico.
En el año 2022, los modelos de IA se utilizaron para contribuir a la fusión de hidrógeno, mejorar la eficiencia en la manipulación de matrices y generar nuevos anticuerpos. No obstante, el informe sobre la IA en la educación enfatiza que la tecnología debe ser vista como una herramienta auxiliar para los investigadores reales y no como un reemplazo de su trabajo.
El estudio resalta la dificultad para los profesores universitarios de revisar toda la información publicada en una materia específica, dada la abundancia de investigaciones, publicaciones en internet, tesis y artículos. La masividad de estos productos dificulta la asimilación de miles de páginas a nivel global. La inteligencia artificial (IA) emerge como una solución al ser capaz de leer, sintetizar y responder preguntas específicas ocultas en grandes cantidades de datos o documentos.
El informe sugiere aprovechar las capacidades lingüísticas de la IA generativa multilingüe, limitando sus fuentes a información científicamente respaldada. Además, destaca la capacidad de traducción de la IA para acceder a información originalmente disponible solo en otros idiomas. El proyecto “Accio” es mencionado como una herramienta actual que permite restringir la información y entrenar modelos con vectores de conocimiento seleccionados por el científico.
En la etapa de diseño, la inteligencia artificial, especialmente en el caso de herramientas como los modelos de lenguaje de gran tamaño (LLM) como ChatGPT, puede ser valiosa para desarrollar hipótesis y marcos iniciales basados en datos e información previa. Estas herramientas ofrecen diversos enfoques y perspectivas que pueden no ser inmediatamente evidentes para un investigador, fomentando la creatividad, el pensamiento lateral y el análisis crítico. Al alimentar adecuadamente a los LLM con información relevante, son capaces de proporcionar marcos preliminares de investigación y diferentes perspectivas.
Se destaca que la tecnología de inteligencia artificial tiene la capacidad de comprender profundamente las características fundamentales de algo, especialmente a través de una percepción intuitiva o un claro entendimiento de situaciones complejas. Sin embargo, el informe subraya la importancia de que las órdenes dadas a la inteligencia artificial sean de alta calidad y pertinencia para obtener respuestas efectivas. La interacción y supervisión humanas son cruciales para garantizar la relevancia y validez de las respuestas generadas por la inteligencia artificial.
En el ámbito de la recopilación y análisis de datos, las técnicas de aprendizaje automático (AA) y aprendizaje profundo (AP) desempeñan un papel crucial como herramientas. Estas tecnologías tienen la capacidad de identificar y comprender patrones y relaciones en conjuntos de datos extensos, los cuales podrían ser difíciles o incluso imposibles de discernir manualmente.
La identificación de patrones permite a los investigadores realizar predicciones, modelar escenarios futuros y tomar decisiones informadas, aspectos esenciales para el avance de cualquier investigación. Además, la capacidad de estas herramientas para hacer proyecciones basadas en patrones identificados brinda a los investigadores la posibilidad de formular nuevas preguntas e hipótesis.
Sin embargo, al utilizar inteligencia artificial, especialmente herramientas como ChatGPT, surgen riesgos relacionados con la originalidad, plagio y autoría. El uso de estas herramientas podría conllevar a la generación de referencias no verificadas y textos vagos, así como al riesgo de plagio, afectando la autenticidad del conocimiento generado, un elemento esencial en la investigación académica.
Para abordar estos desafíos éticos, se propone una perspectiva colaborativa de investigación que involucre a humanos, entornos de investigación e inteligencia artificial en lugar de un enfoque individual de originalidad. Aunque se reconoce el potencial de la inteligencia artificial como herramienta complementaria, se destaca que el control primordial del proceso de investigación debe permanecer en manos humanas.
La ética representa otro aspecto crítico en la investigación, especialmente en universidades con comités de ética que establecen normas para salvaguardar la integridad de la investigación, particularmente cuando involucra a sujetos humanos. Sin embargo, existe una laguna en la ecuación: las directrices éticas actuales pueden no estar adaptadas a la investigación basada en inteligencia artificial (IA), dada la complejidad de interpretar algoritmos y garantizar su transparencia.
A medida que la IA se integra más en la educación superior, surgen desafíos éticos adicionales, incluyendo la cuestión de si las consideraciones éticas deben aplicarse únicamente a los investigadores o extenderse a las herramientas tecnológicas utilizadas. Se plantea la dificultad de equilibrar la innovación con la ética. El informe menciona que en lugares como China, algunos argumentan que un enfoque ético basado en riesgos podría obstaculizar el progreso científico, mientras que otros abogan por una formación ética más sólida para investigadores y profesionales.
En cuanto a la investigación en IA, el informe “La inteligencia Artificial: Retos y Oportunidades” señala que la IA avanza más rápidamente en la industria que en la academia. Se hace referencia al “Artificial Intelligence Index Report 2023” de la Universidad de Stanford, el cual indica que hasta 2014, la mayoría de los modelos significativos de aprendizaje automático eran desarrollados por la academia, pero desde entonces la industria ha tomado la delantera. Esta aceleración se atribuye en gran medida a que la industria posee mayores cantidades de datos, poder computacional y recursos financieros en comparación con organizaciones sin fines de lucro y la academia.
“En 2022, la industria produjo 32 modelos significativos de aprendizaje automático, en comparación con solo tres de la academia (…) La mayoría de las publicaciones sobre inteligencia artificial provienen principalmente de universidades chinas, con nueve de las diez instituciones líderes en número de publicaciones; la restante se encuentra en Estados Unidos. Además, destaca el crecimiento de la investigación en China y su estancamiento en Estados Unidos, a pesar de los grandes programas de investigación de las grandes empresas tecnológicas”, indica el informe anual.
El informe destaca que las investigaciones actuales sobre IA están centradas en el reconocimiento de patrones y el aprendizaje automático. En el caso del reconocimiento de patrones, las investigaciones se han duplicado desde 2015, mientras que en el aprendizaje automático han crecido cuatro veces.
Según el informe de la Universidad de Stanford mencionado anteriormente, en 2021, otros campos destacados de investigación en IA fueron la visión por computadora, con 30,075 publicaciones, seguida por investigaciones sobre algoritmos, con 21,527 artículos, y la minería de datos, con 19,181 artículos. En contraste, apenas el 1.4% de los artículos sobre aplicaciones de la IA en la educación superior abordaron temas de ética, desafíos y riesgos.
En otras palabras, aunque las investigaciones aborden temas relacionados, estos no representan la mayoría del mercado de la inteligencia artificial. La mayor parte del mercado está dominada por profesionales en informática, quienes se enfocan en herramientas, algoritmos, validaciones y aplicaciones, más que en los efectos directos sobre el proceso de aprendizaje.
Se propone hacer que la inteligencia artificial sea más interdisciplinaria, como sugiere el Informe Anual sobre la Inteligencia Artificial. Destaca el creciente enfoque hacia la interdisciplinariedad en la investigación en inteligencia artificial, recordando cómo durante la crisis de la COVID-19 se implementó un marco de investigación interdisciplinaria para abordar el impacto de la IA en la pandemia, considerando aspectos moleculares, clínicos y sociales.
Dado que la inteligencia artificial es un campo interdisciplinario en constante evolución, se considera esencial que investigadores de diversas áreas contribuyan. Algunos expertos sugieren que el futuro de la inteligencia artificial estará estrechamente vinculado a su naturaleza interdisciplinaria.