Dándole lenguaje a la química: el uso de Grandes Modelos del Lenguaje como ChatGPT para la enseñanza e investigación de la química

Diego Onna1,#, Alejandra Elisei Schicchi2, Mauro Bringas1

1Instituto de Química Física de los Materiales, Medio Ambiente y Energía, (INQUIMAE) CONICET. Facultad de Ciencias Exactas y Naturales, Universidad de Buenos Aires, Argentina. 2Departamento de Materiales Avanzados, Instituto Nacional de Tecnología Industrial.

# diego.onna@qi.fcen.uba.ar

Recibido: 29/08/2023 - Aceptado: 20/12/2023

Versión para imprimir

Resumen

Los Grandes Modelos de Lenguaje (LLMs) están produciendo una revolución en nuestra forma de interactuar con la información. Estos son entrenados con vastos conjuntos de textos para generar respuestas en lenguaje humano y son extremadamente útiles en una amplia variedad de aplicaciones. La masificación de los LLMs ocurrió con la introducción de ChatGPT, un chatbot capaz de interactuar en conversaciones y adaptar sus respuestas según interacciones previas. Estos modelos presentan limitaciones, como ser la capacidad de generar información falsa, amplificación de sesgos y desigualdades presentes en los datos de entrenamiento, falta de regulaciones y normativas para su uso, entre otras.
En este trabajo se muestran desarrollos recientes en el área de la química donde los LLMs pueden resultar valiosas herramientas para el ámbito académico y educativo. Ahora es posible abarcar proyectos que hasta hace poco tiempo eran imposibles por falta de recursos. Estos modelos permiten predecir propiedades moleculares, diseñar nuevos compuestos y acelerar la investigación en química, brindando a los investigadores una herramienta poderosa para avanzar en sus estudios de manera más eficiente. En el área de educación los LLMs pueden ayudar en el análisis, reflexión y aprendizaje, adaptándose a medida de cada estudiante para potenciar y personalizar su recorrido en la química.

Palabras clave: Inteligencia artificial, grandes modelos del lenguaje, ChatGPT, procesamiento del lenguaje natural

Giving language to chemistry: The use of Large Language Models like ChatGPT for teaching and research in chemistry.

Summary

Large Language Models (LLMs) are causing a revolution in the way we interact with information. These models are trained on vast datasets of text to generate responses in human language and are extremely useful in a wide variety of applications. A fast adoption of LLMs occurred with the introduction of ChatGPT, a chatbot capable of engaging in conversations and tailoring its responses based on previous interactions. These models present limitations, such as the capability to generate false information, amplification of biases and inequalities present in the training data, lack of regulations and guidelines for their use, among others.
This paper shows recent developments in the field of chemistry where LLMs can be valuable tools for academia and education. It is now possible to embark on projects that were once impossible due to scarcity of resources or time. These models enable the prediction of molecular properties, the design of new compounds, and the acceleration of chemistry research, providing researchers with a powerful tool to advance their studies more efficiently. In the field of education, LLMs can assist in analysis, examination, and learning, adapting to each student's needs to enhance and personalize their journey in chemistry.

Keywords: Artificial intelligence, large language models, ChatGPT, natural language processing

fig1

Figura de tapa Imagen generada utilizando IA.

El uso de la Inteligencia Artificial (IA) ha sido explorado desde hace tiempo en la ciencia ficción, donde las computadoras eran capaces de comprender y realizar cualquier tarea intelectual, al igual que ocurre con los seres humanos [1]. Desde hace varios años, la IA está generando un cambio disruptivo en la manera en la cual interactuamos con la información [2]. Tradicionalmente, era necesario poder interpretar y editar código para aprovechar sus capacidades. Sin embargo, el reciente avance de los Modelos de Procesamiento de Lenguaje Natural (NLP por sus siglas en inglés) rompió esta barrera y tornó a estas tecnologías mucho más accesibles, con un impacto y potenciales ramificaciones que aún estamos lejos de poder estimar con precisión.

Los LLMs (Grandes Modelos de Lenguaje) son modelos creados mediante algoritmos de aprendizaje profundo capaces de procesar, analizar y aprender de una vasta cantidad de datos en lenguaje natural. Estos modelos han demostrado ser muy útiles en una amplia variedad de aplicaciones, incluida la traducción de idiomas, la creación de contenido e incluso como herramientas educativas [3-4]. Google presentó en 2018 a BERT [5], un modelo pre-entrenado que utiliza la arquitectura Transformer y logró resultados impresionantes en diversas tareas de procesamiento de lenguaje natural debido a estar entrenado con un vasto corpus de texto. RoBERTa [6], creado en 2019 por Facebook, es una extensión más robusta de BERT que utiliza una arquitectura similar, pero se entrenó con una mayor cantidad de texto, secuencias más largas y más iteraciones. En 2020 la empresa OpenAI creó a GPT-3, generando un modelo de lenguaje mucho más grande que los existentes hasta ese momento [7]. En general, estos modelos se entrenan con grandes volúmenes de datos a partir de textos disponibles públicamente, como libros, artículos y páginas web, con el objetivo de generar respuestas de apariencia humana en conversaciones. En muchos casos han generado conflictos de intereses debido a la procedencia de los datos utilizados para su entrenamiento [3].

La masificación de estos modelos ocurrió en noviembre de 2022 con el lanzamiento de ChatGPT [8] , que es un chatbot basado en (diferentes versiones de) GPT que permite interactuar a los usuarios de manera conversacional, utilizando un lenguaje similar al humano para responder preguntas y generar contenido. La aplicación ChatGPT registra interacciones previas y respuestas, corrigiendo, y ajustando las siguientes respuestas en función de la secuencia de entradas anteriores, ya que puede recibir feedback. Una parte clave de su éxito es la capacidad iterativa, que permite mejorar la calidad de las respuestas al usuario mediante una elección apropiada de instrucciones (prompt engineering). Esta herramienta fue un éxito absoluto, recibiendo en pocos meses millones de usuarios y mostrando una velocidad de adopción poco vista en tiempos recientes. Impulsando a otras empresas a desarrollar sus propias versiones, como Bard de Google. También se han desarrollado LLM que son open source como BLOOM y LLaMA 2 permitiendo acceso y mejoras de parte de una mayor cantidad de desarrolladores [9-10]. Esta rápida escalada y aceleración implicó que una parte de la comunidad se expresara en contra del continuo desarrollo de estos modelos [11].

Limitaciones

Estos grandes modelos del lenguaje parecen la panacea, sin embargo están plagados de limitaciones que requieren un uso juicioso, precauciones y cuidados. Un ejemplo conocido es su propensión a generar información falsa y presentarla como verdadera, lo que se conoce como "alucinación". Al pedir publicaciones relevantes para utilizar como cita en un artículo, ChatGPT generar una lista de referencias completamente ficticias [12]. Obteniendo así una respuesta con estructura correcta pero no necesariamente veraz y una variedad de casos como utilizar algunos artículos reales, inventar un artículo o utilizar un artículo real pero sin relación con la consulta, o una combinación de los anteriores casos. Dado que estos modelos son entrenados para construir expresiones textuales basadas en patrones encontrados en el conjunto de entrenamiento, son incapaces de generar textos que reflejen con precisión las capacidades y limitaciones de su respuesta [13]. Esta generación de información cuyos hechos pueden ser falsos limita su aplicabilidad en varios contextos, por ejemplo en legislación o regulaciones en el campo de la química. No es recomendable basarse en resultados de los actuales LLM para un análisis sutil ya que puede conducir a una gran proporción de diagnósticos erróneos y procedimientos ineficaces que podrían causar un perjuicio. Debido a esta limitación, es esencial examinar cuidadosamente los resultados de los LLMs para garantizar su precisión. Adicionalmente, la mayoría de modelos no tienen acceso a información más reciente que la fecha en que fueron entrenados, que por ser un proceso costoso ocurre típicamente una única vez [13]. En esta categoría se encuentra ChatGPT que no está conectado a internet y tiene un conocimiento de eventos mundiales posteriores al 2021 limitado, tal como se menciona en su sección de preguntas frecuentes (FAQ). En contraste, Bing si presenta conectividad a internet logrando acceso a información actualizada.

El acceso limitado a estos modelos se debe en gran medida a razones financieras ya que se requieren muchos recursos para utilizar, entrenar y mantener a los LLMs [14]. Por ejemplo, fuentes de OpenAI mencionaron que fueron necesarios 100 millones para entrenar a GPT-4. Por ende es esencial crear regulaciones por parte de organizaciones gubernamentales para garantizar el acceso a grupos con menores recursos. En general, una manera de reducir costos es emplear modelos preentrenados y tecnología en la nube, combinados con esquemas cooperativos en asociación con otras instituciones y empresas. Actualmente, está aumentando la investigación y desarrollo de técnicas de compresión y poda, con el objetivo de disminuir el tamaño del modelo, la cantidad de los datos y los recursos computacionales requeridos para su entrenamiento.

Los datos de entrenamiento de los modelos no están libres de sesgos o inequidades, lo que genera consecuencias no deseadas y margina a grupos minoritarios. La masificación de resultados generados por LLMs que fueron creados de manera poco ética e irresponsable pueden exacerbar y perpetuar los sesgos sistemáticos y las disparidades [13]. Dado el creciente impacto de estos modelos en la sociedad es importante que la sociedad y empresas aborden estos problemas fundamentales relacionados con la adopción de estas tecnologías. En la mayoría de los casos, es necesario abordar el problema desde el diseño inicial de los modelos, asegurándose que los datos utilizados no presentan sesgo y que los algoritmos tampoco los contengan. Para ello, resulta fundamental promover el uso de modelos que sean más sencillos de evaluar y más transparentes, lo que implica la publicación de sus métodos y selección de métricas de entrenamiento adecuadas. También son necesarios enfoques multidisciplinarios que permitan eliminar o reducir el impacto de la desigualdad o el aprendizaje de representaciones injustas. Otro aspecto no menor es que la mayoría del entrenamiento se realiza en textos en inglés, lo que resulta en una calidad de resultados inferior en otros idiomas, especialmente en campos muy específicos y técnicos [3].

Finalmente, el uso de LLM plantea serías preocupaciones sobre la privacidad y seguridad de los datos del usuario, ya que los datos brindados al modelo pueden ser sensibles y/o personales [3]. Para evitarlo, es necesario desarrollar e implementar políticas de privacidad y seguridad de datos que describan de forma clara cómo se realiza la recopilación, almacenamiento y uso de los datos brindados a los modelos, bajo estándares éticos. También es importante garantizar la anonimización de la información personal para preservar la privacidad.

Academia

La investigación en diversas áreas del conocimiento está experimentando una aceleración en la innovación impulsada por los LLMs. Estos permiten proporcionar respuestas rápidas a preguntas técnicas o asistir en revisiones bibliográficas y edición en la elaboración de artículos [14]. Actualmente, no existen acuerdos generalizados sobre en qué porcentaje está permitido editar un texto con un modelo de lenguaje, ya que luego de cierto grado dejaría de ser una producción original humana. Tampoco está definida la manera en que se debe documentar el uso de los LLMs. Las diferentes casas editoriales están adaptándose al cambio y definiendo posturas al respecto. En algunas revistas, es posible atribuir la autoría de los manuscritos a los LLMs, ya que establecieron que puede ser considerado y hasta qué porcentaje de texto puede ser incluido. Mientras que otras, como la revista Science, no permiten incluir texto o gráficos creados mediante inteligencia artificial y no se permitirá que los LLMs figuren como autor. En la misma sintonía, la revista Nature no permite que las herramientas de LLM sean consideradas como autores de investigación, y es necesario detallar cómo fue la manera que fueron utilizadas en la sección de métodos y/o expresar agradecimientos.

Debido a las limitaciones cuando se busca información específica y confiable, han surgido nuevos LLMs desarrollados específicamente para proporcionar información científica precisa [15], como por ejemplo Perplexity.ai. Estos modelos son adaptados para crear motores de búsqueda generativos que crean respuestas a las consultas de los usuarios, junto con citas en línea correspondientes. Una característica buscada en estos motores basados en LLMs es que sean verificables, es decir, se debe citar de manera exhaustiva (todas las afirmaciones están completamente respaldadas por citas) y con precisión (cada cita respalda su afirmación asociada). De este modo los usuarios pueden verificar fácilmente cualquier afirmación generada mediante su cita correspondiente. Estos motores distan de ser perfectos y contienen frecuentemente afirmaciones sin respaldo o citas inexactas. En promedio, solo el 51.5% de las oraciones generadas cuentan con un respaldo en forma de citas, y solo el 74.5% de las citas respaldan su oración asociada [15]. Frecuentemente, las respuestas que parecen más útiles son aquellas con más afirmaciones sin respaldo o citas inexactas. Esta correlación inversa ocurre debido a que estos sistemas tienen tendencia a copiar o parafrasear de las páginas web citadas, mejorando la calidad de las citas a expensas de la fluidez y utilidad del texto resultante. Los motores de búsqueda generativos existentes tienen dificultades para manejar consultas que no se pueden responder de manera extractiva (por ejemplo, agregando información de varias citas) y ponderar de manera adecuada las citas de relevancia variable.

Los LLMs también pueden guiar las actividades que se realizan en un laboratorio de síntesis. El primer paso para planificar una síntesis de materiales es realizar una búsqueda bibliográfica que permita planificar el desarrollo de los experimentos y qué variables se buscan optimizar. Los modelos pueden asistir en la extracción de datos a partir de bibliografía y su organización en forma estructurada, acelerando, por ejemplo, el avance en el desarrollo de marcos orgánico-metalicos (MOFs por sus siglas en inglés) [16]. Mediante estrategias de ingeniería de instrucciones (prompt engineering) se ha logrado limitar la libertad de las repuestos de ChatGPT al recibir consultas acerca de bibliografía en este área. Se obtuvieron métricas de recuperación de contenido científico útil a niveles que superan el 90% y ha sido posible utilizar esta información para crear modelos de aprendizaje automático con prometedores resultados.

El desarrollo de fármacos también se está beneficiando en gran medida con los LLMs [17-19]. Por ejemplo, se han testeado la predicción de estados electrónicos de distintos elementos en variadas moléculas, conversión de archivos con información molecular entre distintos formatos, recopilación de estructuras cristalográficas de proteínas a partir de su código en la base y la obtención de secuencias de ADN almacenadas en bases de datos abiertas. En el corto plazo, se espera realizar tareas más complejas como identificar moléculas blanco para distintas patologías, diseño de nuevas moléculas con potencial acción terapéutica, y estimar toxicidad de las moléculas basadas en su estructura. Aún no es posible reducir las potenciales desventajas de credibilidad, interpretabilidad y validación experimental, pero se considera que su futuro es prometedor en esta área.

Los LLMs han demostrado su utilidad como facilitadores de implementación de desarrollos tecnológicos en proyectos relacionados con datos y química [20]. Mediante la asistencia de los LLMs fue posible desarrollar proyectos completos en pocos días, cuando de otro modo hubieran sido necesarios varios meses. La aplicabilidad se muestra en la diversidad de temas abordados y que culminó con la entrega de un prototipo funcional. Algunos ejemplos de proyectos se centraron en modelado predictivo, automatización e interfaces novedosas, extracción de conocimiento y temáticas abocadas a la educación. Respecto al modelado predictivo utilizando LLMs para tareas de clasificación y regresión, cálculo de energías y descubrimiento de moléculas. Se utilizó ChatGPT para crear procesos de automatización e interfaces novedosas, demostrando que el lenguaje natural podría ser el futuro del diseño de sistemas. También se aprovechó para hacer más accesible el conocimiento al extraer información estructurada a partir de texto libre.

Educación:

Los LLMs ofrecen muchas ventajas aplicadas a la educación, ya que potencialmente pueden utilizarse en todos los niveles educativos. Una de las principales críticas es su uso o potencial uso indebido para generar textos con mínima o nula supervisión humana. Aunque los beneficios y oportunidades en la educación son claros, como ayudar a los estudiantes con investigación y redacción académica [3] o convertirse en una guía de estudio interactiva que incluso puede generar ejercicios y exámenes para practicar y dar feedback al instante, como si fuera un tutor virtual [21]. Las respuestas obtenidas son mayormente correctas en la mayoría de los tópicos, incluso en casos donde la temática sea muy específica. Sin embargo, el desempeño en áreas como la química y el razonamiento lógico matemático es muchas veces deficiente al utilizar LLMs como ChatGPT. Este chatbot es incapaz de realizar operaciones matemáticas de manera confiable, cometiendo errores conceptuales y/o con contenido sólo parcialmente preciso [22]. Además, no está preparado para proporcionar respuestas o explicaciones confiables a los estudiantes para muchas preguntas típicas de exámenes.

Un aspecto notablemente negativo del uso de LLMs es la creación de una dependencia excesiva que puede dificultar la capacidad de los estudiantes para desarrollar habilidades críticas, como la escritura. También existe la posibilidad que estudiantes utilicen fácilmente los modelos de manera deshonesta, ya sea para cometer fraude en tareas y exámenes, o para escribir informes y ensayos sin citar adecuadamente, lo cual sería considerado como plagio. Hay investigaciones que evidencian que los resultados de ChatGPT pueden evadir herramientas convencionales de detección de plagio. Esto presenta un desafío para la credibilidad y validez académica, así como para la evaluación justa del aprendizaje [23].

A pesar de las inquietudes fundamentadas, es posible instruir a los estudiantes para que interactúen con los LLMs de manera constructiva, en congruencia con los códigos éticos y de honor de las instituciones educativas. El enfoque no debe centrarse en si los estudiantes emplearon modelos de lenguaje, sino cómo los emplean. Pues es análogo a cómo los tutores asisten a los estudiantes en las tareas académicas. Por lo tanto, sería poco formativo que un estudiante entregue un texto generado de manera literal por un LLM como resultado de una sola solicitud para escribir un ensayo. En cambio, sería positivo si el estudiante elabora un ensayo combinando respuestas de diferentes preguntas, verificando datos y editando el texto. Los estudiantes deberían ser conscientes que los LLMs no son infalibles y pueden inventar información o cometer errores. De este modo, queda claro que los LLMs son una herramienta más, similar al uso de Internet con fines educativos, donde la mayoría de la información debe ser procesada con un grado de escepticismo, requiriendo confirmación en múltiples fuentes, preferiblemente primarias.

Hace bastante tiempo que se intenta modernizar la manera en que se enseña química e incluir habilidades como la programación, para poder abordar problemáticas más complejas y reales [20]. En este aspecto, los LLMs son particularmente interesantes pues permiten a los estudiantes escribir código rápidamente o resolver problemas comunes, y explicar conceptos de programación, especialmente para aquellos que recién comienzan a aprender a programar.

En relación a los docentes, los LLMs ofrecen muchas nuevas oportunidades para facilitar el desarrollo y diseño de cursos, la planificación de lecciones, la evaluación y la corrección de evaluaciones. El crecimiento en la utilización de estos modelos es inexorable y requiere un cambio en la pedagogía y las evaluaciones educativas, integrando el uso de los LLMs en el día a día como una herramienta adicional y enfocando más en el proceso que en el producto final para la evaluación. Será esencial enseñar el uso adecuado de los LLMs, incluyendo sus limitaciones, para garantizar su aplicación responsable. También, es importante garantizar el acceso equitativo a estas herramientas para evitar disparidades en el aprendizaje.

Conclusiones

En resumen, el empleo de grandes modelos de lenguaje en el ámbito de la química representa un campo de investigación prometedor, lleno de oportunidades para enriquecer tanto la labor de investigación como la experiencia de aprendizaje de los estudiantes. Sin embargo, es esencial abordar su utilización con prudencia y examinar de manera crítica sus limitaciones y posibles sesgos. La incorporación de estos modelos debe cumplir rigurosamente con criterios de privacidad, seguridad y, para una escalabilidad sostenible, considerar aspectos costos (económicos y medioambientales), regulatorios y éticos. Esto debe llevarse con la supervisión humana constante que brinde orientación y pensamiento analítico. Creemos que, para capitalizar plenamente el potencial de estos modelos en la química es indispensable un esfuerzo colectivo, que involucre no solo a químicos y científicos de la computación, sino también a profesionales en derecho, filosofía y ética. Las posibilidades y desafíos son de tal amplitud y profundidad que su abordaje requiere la colaboración de múltiples disciplinas.

Si bien los autores creemos que el uso de grandes modelos de lenguaje le abre a la química oportunidades transformadoras e innovadoras, pensamos que, a pesar de las dificultades y desafíos, los riesgos discutidos son manejables y deben abordarse para proporcionar un acceso equitativo y confiable a los LLMs.

En vista de las nuevas formas de trabajar y pensar, combinadas con el rápido ritmo de desarrollos en el campo, es apremiante replantear nuestros enfoques en investigación y enseñanza. Debemos deliberar sobre cómo asegurar un uso seguro, establecer estándares para evaluar y compartir estos modelos, y lograr implementaciones robustas y confiables. Asimismo, es crucial debatir cómo preparar a la siguiente generación de químicos para que sean usuarios hábiles y críticos de estas herramientas, que puedan utilizarlas para trabajar de manera más eficiente mientras reflexionan a conciencia sobre los resultados de los sistemas.

Agradecimientos

El apoyo financiero de la Agencia Nacional de Promoción Científica y Tecnológica (ANPCyT, PICT-2018-00780, PICT-2019-01615, PICT-2021-GRFTI-0035 y PICTO-2021-UNGS-0002) es agradecido sinceramente. D.O. es miembro del personal de CONICET.

Referencias:

1. Roberts A. (2016). The history of science fiction. London: Palgrave Macmillan.

2. Rajendra P, Kumari M, Rani S, Dogra N, Boadh R, Kumar A, & Dahiya M. (2022). Impact of artificial intelligence on civilization: Future perspectives. Materials Today: Proceedings, 56, 252-256.

3. Kasneci E, Seßler K, Küchemann S, Bannert M, Dementieva D, Fischer F, et al (2023). ChatGPT for good? On opportunities and challenges of large language models for education. Learning and individual differences, 103, 102274.

4. Castro Nascimento, C. M., & Pimentel, A. S. (2023). Do Large Language Models Understand Chemistry? A Conversation with ChatGPT. Journal of Chemical Information and Modeling, 63(6), 1649-1655.

5. Devlin J, Chang MW, Lee K, & Toutanova K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.

6. Liu Y, Ott M, Goyal N, Du J, Joshi M, Chen D, et al (2019). Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692.

7. Brown T, Mann B, Ryder N, Subbiah M, Kaplan JD, Dhariwal P, et al (2020). Language models are few-shot learners. Advances in neural information processing systems, 33, 1877-1901.

8. OpenAI. (2023). GPT-4 technical report. arXiv, 2303-08774.

9. Touvron H, Lavril T, Izacard G, Martinet X, Lachaux MA, Lacroix T, et al (2023). Llama: Open and efficient foundation language models. arXiv preprint arXiv:2302.13971.

10. Scao TL, Fan A, Akiki C, Pavlick E, Ilić S, Hesslow D, et al (2022). Bloom: A 176b-parameter open-access multilingual language model. arXiv preprint arXiv:2211.05100.

11. https://futureoflife.org/open-letter/pause-giant-ai-experiments/

12. Alkaissi H, & McFarlane SI (2023). Artificial hallucinations in ChatGPT: implications in scientific writing. Cureus, 15(2).

13. Ray PP (2023). ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope. Internet of Things and Cyber-Physical Systems.

14. Meyer JG, Urbanowicz RJ, Martin PC, O’Connor K, Li R, Peng PC, et al (2023). ChatGPT and large language models in academia: opportunities and challenges. BioData Mining, 16(1), 20.

15. Liu NF, Zhang T, & Liang P. (2023). Evaluating verifiability in generative search engines. arXiv preprint arXiv:2304.09848.

16. Zheng Z, Zhang O, Borgs C, Chayes JT, & Yaghi OM (2023) ChatGPT Chemistry Assistant for Text Mining and the Prediction of MOF Synthesis. Journal of the American Chemical Society. 145 (32), 18048-18062

17. Savage N. (2023). Drug discovery companies are customizing ChatGPT: here’s how. Nature Biotechnology.

18. Zhao A & Wu Y. (2023). Future implications of ChatGPT in pharmaceutical industry: drug discovery and development. Frontiers in Pharmacology, 14, 1194216.

19. Sharma G, Thakur A. ChatGPT in Drug Discovery. ChemRxiv. Cambridge: Cambridge Open Engage; 2023.

20. Jablonka KM, Ai Q, Al-Feghali A, Badhwar S, Bocarsly JD, Bran AM, et al (2023). 14 Examples of How LLMs Can Transform Materials Science and Chemistry: A Reflection on a Large Language Model Hackathon. Digital Discovery.

21. Tyson J. (2023). Shortcomings of ChatGPT. Journal of Chemical Education, 100(8), 3098-3101.

22. Gill SS, Xu M, Patros P, Wu H, Kaur R, Kaur K, et al (2024). Transformative effects of ChatGPT on modern education: Emerging Era of AI Chatbots. Internet of Things and Cyber-Physical Systems, 4, 19-23.

23. Tsai ML, Ong CW, & Chen CL (2023). Exploring the use of large language models (LLMs) in chemical engineering education: Building core course problem models with Chat-GPT. Education for Chemical Engineers, 44, 71-95.



ISSN 1666-7948
www.quimicaviva.qb.fcen.uba.ar

Revista QuímicaViva
Número 3, año 22, Diciembre 2023
quimicaviva@qb.fcen.uba.ar