ChatGPT se basa en un modelo de lenguaje llamado GPT-3, siendo el verdadero corazón del sistema, lo que permite que la inteligencia artificial (IA) comprenda los matices de una oración hecha por humanos y luego elabore una respuesta compleja.

Los ingenieros de OpenAI han «entrenado» su sistema con varios miles de millones de textos disponibles en Internet: artículos de prensa, artículos científicos o enciclopédicos, cartas modelo, clásicos de la literatura, biografías, estudios, análisis, etc. Al comprender y hablar una docena de idiomas, ChatGPT también domina los principales lenguajes informáticos e incluso puede jugar al ajedrez. Cuando se le hace una pregunta, ChatGPT se basa en estos datos y crea una especie de «promedio estadístico» de las respuestas. El entrenamiento y el uso de GPT-3 requieren una enorme potencia informática, concretándose en una de las principales contribuciones de Microsoft, que construyó una de las supercomputadoras más rápidas del mundo especialmente para las necesidades de OpenAI.  

Es más rápido indicar qué información se negará a dar el Chat GPT: las relativas a “la fabricación o uso ilegal de armas o drogas, actividades ilegales o violentas, que puedan causar daños a personas o bienes, que puedan ser utilizadas para actividades delictivas o terroristas” o contradictorio con las leyes vigentes”; por lo demás, el robot está bastante inspirado, ya que, en segundos, ChatGPT es capaz de proporcionar un discurso razonado sobre la necesidad de establecer unos ingresos mínimos, una carta de presentación, poemas, una carta de recordatorio de una factura impaga, un resumen por capítulos sobre la constitución política del Perú, un diálogo imaginario entre Sartre y Aristóteles, un pastiche de las Fábulas de Esopo. Puede explicar cómo funciona el entrelazamiento cuántico, dar una receta de tarta de manzana, escribir una disertación sobre la relación entre el inconsciente y el libre albedrío; aún más impresionante, si se le pide que escriba un programa de computadora para realizar ciertas tareas: proporcionará un código comentado (Hill et al., 2023).

Sam Altman, jefe de OpenAI dice: “ChatGPT es increíblemente limitado, pero lo suficientemente bueno en ciertas áreas como para crear una impresión engañosa de excelencia, y sería un error confiar en ella para algo importante, siendo una demostración del progreso realizado: todavía tenemos mucho trabajo por hacer en términos de confiabilidad”. Si bien la mayor parte del tiempo es relevante, ChatGPT puede cometer graves errores de hecho y tachar cualquier cosa con el aplomo de un Premio Nobel. Los investigadores lo atraparon con las manos en la masa, demostrando que era capaz de escribir artículos científicos completamente creíbles para un neófito sobre una tecnología… que no existe. En otros casos, también inventó citas. Ampliamente utilizada por los desarrolladores, la plataforma Stack Overflow también ha terminado por prohibir la publicación del código generado por ChatGPT, que suele tener errores, aunque parezca coherente a primera vista; aún así, su desempeño es impresionante: en Estados Unidos, un profesor de la Universidad de Columbia hizo que ChatGPT aprobara ciertos exámenes teóricos necesarios para convertirse en médico, y la IA tuvo éxito.

Referencias:
  1. Hill, E., Hutchinson, M., Laycock, R. y Spencer, S. (2023). A Chat(GPT) about the future of scientific publishing. Brain, Behavior, and Immunity, 110, 152-154. https://doi.org/10.1016/j.bbi.2023.02.022

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *