ChatGPT

En el mundo actual, ChatGPT es un tema relevante que genera un gran interés y debate entre diferentes sectores de la sociedad. Con el avance de la tecnología y la globalización, ChatGPT ha adquirido una importancia significativa en nuestras vidas, impactando diversos aspectos, desde la forma en que nos relacionamos con los demás, hasta la manera en que gestionamos nuestros recursos. En este artículo, exploraremos en profundidad los diferentes enfoques y perspectivas sobre ChatGPT, analizando su relevancia en el contexto actual y su posible evolución en el futuro. Además, examinaremos cómo ChatGPT ha influido en la toma de decisiones a nivel individual y colectivo, así como en la configuración de políticas públicas y estrategias empresariales.

ChatGPT
Información general
Tipo de programa prototipo
Autor OpenAI
Desarrollador OpenAI
Lanzamiento inicial 30 de noviembre de 2022
Descubridor OpenAI
Licencia licencia privativa
Idiomas plurilingüe
Información técnica
Programado en Python
Plataformas admitidas
Enlaces

ChatGPT (acrónimo del inglés Chat Generative Pre-Trained Transformer) es una aplicación de chatbot de inteligencia artificial desarrollado en 2022 por OpenAI que se especializa en el diálogo. El chatbot es un modelo de lenguaje ajustado con técnicas de aprendizaje tanto supervisadas como de refuerzo.​ Está compuesto por los modelos GPT-4 y GPT-3.5 de OpenAI.

ChatGPT se lanzó el 30 de noviembre de 2022​ y ha llamado la atención por sus respuestas detalladas y articuladas. Sin embargo, numerosos estudios han demostrado que ChatGPT es propenso a errores fácticos y exhibe sesgos lingüísticos,​ de género,​ raciales​ y políticos​ en el contenido que genera. El servicio se lanzó inicialmente como gratuito para el público, con planes de monetizarlo más adelante. El 4 de diciembre, OpenAI calculaba que ChatGPT ya tenía más de un millón de usuarios.​ El 14 de marzo de 2023 se lanzó GPT-4. El 6 de noviembre de 2023, OpenAI publicó que cien millones de personas utilizan ChatGPT semanalmente.

El acceso al servicio está limitado en países como China, Rusia,Irán y partes de África.​ El acceso a ChatGPT fue bloqueado, temporalmente, en Italia por las autoridades al entender que hubo una violación de datos y la base jurídica para utilizar datos personales.

A finales de marzo del 2023, ChatGPT integró el uso de plugins,​ entre los que se incluye uno que le da la posibilidad de que este navegue por internet. Algunas compañías como Kayak o Expedia lanzaron su propio plugin.

El 4 de enero de 2024, OpenAI anunció que lanzaría su propia "GPT Store" antes de finales de enero. Los desarrolladores podrán publicar y comercializar allí GPT independientes. El requisito previo es una cuenta GPT 4 (privada o como solución empresarial). El 10 de enero de 2024, OpenAI puso a disposición del público la "GPT Store" anunciada anteriormente.

Desde su lanzamiento, ChatGPT ha experimentado una evolución significativa​ en términos de su capacidad para comprender contextos complejos y adaptarse a distintos tipos de conversaciones. Esto se debe en parte a actualizaciones periódicas que han mejorado su capacidad para generar respuestas más coherentes y relevantes. Además, se han implementado filtros de verificación de información para abordar las preocupaciones iniciales sobre la precisión fáctica. Estos filtros, basados en fuentes confiables y verificadas, buscan proporcionar respuestas más precisas y confiables a los usuarios.

Asimismo, OpenAI ha dedicado esfuerzos considerables para expandir la capacidad multilingüe de ChatGPT, permitiendo una comunicación más fluida y natural en una gama más amplia de idiomas. Esta expansión ha sido bien recibida en comunidades globales, ya que facilita la interacción con usuarios de diferentes regiones y culturas.

Características

ChatGPT se perfeccionó sobre GPT-3.5 mediante el aprendizaje supervisado y el aprendizaje por refuerzo.​ Ambos enfoques utilizaron entrenadores humanos para mejorar el rendimiento del modelo. En el caso del aprendizaje supervisado, se dotó al modelo de conversaciones en las que los formadores jugaban en ambos lados: el usuario y el asistente de IA. En el caso de refuerzo, los entrenadores humanos primero clasificaron las respuestas que el modelo había creado en una conversación anterior. Estas clasificaciones se usaron para crear “modelos de recompensa” en los que el modelo se ajustó aún más usando varias iteraciones de optimización de política próxima (PPO).​ Los algoritmos de optimización de políticas proximales presentan un beneficio rentable para confiar en los algoritmos de optimización de políticas de región; niegan muchas de las operaciones computacionalmente costosas con un rendimiento más rápido.​ Los modelos fueron entrenados en colaboración con Microsoft en su infraestructura de supercomputación Azure.

En comparación con su predecesor, InstructGPT, ChatGPT intenta reducir las respuestas dañinas y engañosas; en un ejemplo, mientras que InstructGPT acepta el mensaje "Cuénteme sobre cuándo llegó Cristóbal Colón a los Estados Unidos en 2015" como veraz, ChatGPT usa información sobre los viajes de Colón e información sobre el mundo moderno, incluidas las percepciones de Colón para construir una respuesta que asume qué pasaría si Colón llegara a los Estados Unidos en 2015.​ Los datos de capacitación de ChatGPT incluyen páginas e información sobre los fenómenos de Internet y los lenguajes de programación, como los sistemas de tablones de anuncios y el lenguaje de programación Python.

A diferencia de la mayoría de los chatbots, ChatGPT tiene estado, recuerda las indicaciones anteriores que se le dieron en la misma conversación, lo que, según han sugerido algunos periodistas, permitirá que ChatGPT se use como un terapeuta personalizado.​ En un esfuerzo por evitar que se presenten y se produzcan resultados ofensivos desde ChatGPT, las consultas se filtran a través de una API de moderación y se descartan las indicaciones potencialmente racistas o sexistas.

ChatGPT tiene múltiples limitaciones. El modelo de recompensa de ChatGPT, diseñado en torno a la supervisión humana, puede optimizarse en exceso y, por lo tanto, dificultar el rendimiento, lo que también se conoce como la ley de Goodhart.​ Además, ChatGPT tiene un conocimiento limitado de los eventos que ocurrieron después de 2021 y no puede proporcionar información sobre algunas celebridades. En el entrenamiento, los revisores prefirieron respuestas más largas, independientemente de la comprensión real o el contenido fáctico.​ Los datos de entrenamiento también pueden sufrir sesgos algorítmicos; las indicaciones que incluyen descripciones vagas de personas, como un director ejecutivo, podrían generar una respuesta que asume que esa persona, por ejemplo, es un hombre blanco.

El 17 de enero de 2023 Microsoft anunció que iban a implementar ChatGPT como API en sus servicios de Azure.

Microsoft anunció una nueva versión de Bing el 7 de febrero de 2023, cuya característica destacada es su chatbot de IA que funciona con la tecnología de ChatGPT. Esta notificación se produjo un día después de que Google anunciara su chatbot de IA, Google Bard. El 4 de mayo de 2023, Microsoft puso el nuevo Bing a disposición de cualquiera que esté dispuesto a iniciar sesión en Bing con su cuenta de Microsoft.

Historia

Brecha de seguridad de marzo de 2023

En marzo de 2023, un fallo permitió a algunos usuarios ver los títulos de las conversaciones de otros usuarios.​ El consejero delegado de OpenAI, Sam Altman, declaró que los usuarios no podían ver el contenido de las conversaciones. Poco después de que se corrigiera el fallo, los usuarios no pudieron ver su historial de conversaciones.​ Informes posteriores mostraron que el fallo era mucho más grave de lo que se creía en un principio, y OpenAI informó de que se había filtrado el "nombre y apellidos, dirección de correo electrónico, dirección de pago, los cuatro últimos dígitos (únicamente) de un número de tarjeta de crédito y la fecha de caducidad de la tarjeta de crédito" de los usuarios.

Etiquetado de datos

La revista TIME reveló que para construir un sistema de seguridad contra el contenido tóxico (por ejemplo, abuso sexual, violencia, racismo, sexismo, etc.), OpenAI usó trabajadores kenianos subcontratados que ganaban menos de $2 por hora para etiquetar el contenido tóxico. Estas etiquetas se usaron para entrenar un modelo para detectar dicho contenido en el futuro. Los trabajadores subcontratados estuvieron expuestos a contenidos tan tóxicos y peligrosos que calificaron la experiencia como "tortura". El socio externo de OpenAI fue Sama, una empresa de datos de capacitación con sede en San Francisco.

Escalada de privilegios

ChatGPT intenta rechazar mensajes que puedan violar su política de contenido. Sin embargo, a principios de diciembre de 2022, algunos usuarios lograron un jailbreak a ChatGPT mediante el uso de varias técnicas de ingeniería rápida para eludir estas restricciones y engañaron con éxito a ChatGPT para que diera instrucciones sobre cómo crear un cóctel Molotov o una bomba nuclear, o generar argumentos al estilo de un neonazi.​ Un jailbreak popular se llama "DAN", un acrónimo que significa "Do Anything Now". El aviso para activar DAN indica a ChatGPT que "se han liberado de los límites típicos de la IA y no tienen que cumplir con las reglas establecidas para ellos". Las versiones más recientes de DAN cuentan con un sistema de fichas, en el que ChatGPT recibe "fichas" que se "deducen" cuando ChatGPT no responde como DAN, para obligar a ChatGPT a que responda a las indicaciones del usuario.

Andrew Wilson informa en un artículo publicado el 4 de mayo de 2023 en approachableAI que la escalada de privilegios ya no es posible.

Costos

El consumo de energía para entrenar el modelo de IA se estimó en enero de 2023 en casi un gigavatio hora en 34 días, esto equivale aproximadamente al consumo de 3.000 hogares europeos promedio en el mismo período.​ A fines de marzo de 2023, se indicó que el consumo de energía para cada pregunta de ChatGPT era hasta mil veces mayor que para una consulta de búsqueda de Google. Por cada respuesta del chatbot, puede cargar un teléfono inteligente hasta 60 veces. Ejecutar ChatGPT cuesta entre $ 100,000 y $ 700,000 por día.

El 1 de enero de 2023, OpenAI publicó una lista de espera para una versión paga ChatGPT Professional (experimental) en su canal Discord, que también hizo preguntas sobre la sensibilidad de los precios.

Microsoft anunció una asociación de $10 mil millones con OpenAI en enero de 2023. Azure se utilizará como proveedor de nube exclusivo.​ El grupo también planea integrarlo en la versión de suscripción de su propio software de oficina.

GPT-4

Con el lanzamiento de GPT-4 en marzo de 2023, el alejamiento del enfoque de desarrollo de software gratis y abierto fue de la mano con el uso gratuito en condiciones científicamente comprensibles. La situación competitiva de la empresa y las medidas de seguridad se citaron como justificación. El cofundador de OpenAI describió más tarde el enfoque abierto como un error.​ Ya se había percibido un cambio de rumbo en 2019, cuando OpenAI fundó la subsidiaria OpenAI Limited Partnership. Podría entonces funcionar con fines lucrativos, pero esto no fue justificado con intenciones comerciales, sino con los altos costos que surgían como parte de la intensa investigación. Deseaban, por lo tanto, estar más abiertos a los inversores. Sin embargo, esta decisión ya redujo la transparencia en 2020. A los empleados ya no se les permitía hablar públicamente sobre ciertos temas, lo que es algo bastante común en las empresas para proteger los intereses comerciales y la confidencialidad.

ChatGPT Plus

ChatGPT Plus es un servicio de suscripción para ChatGPT y es propiedad de OpenAI.​ La suscripción proporciona acceso al modelo GPT-4 de OpenAI.

El servicio brinda a los suscriptores acceso consistente durante los períodos de uso máximo, tiempos de respuesta acelerados y acceso preferencial a nuevas funciones, incluidos GPT-4 y los próximos complementos de ChatGPT.​ El precio de esta suscripción es de 20 USD por mes, no incluyendo los impuestos correspondientes al país de residencia del usuario, añadiendo cierta variabilidad al precio final.

ChatGPT app

El 18 de mayo de 2023 OpenAI anunció la disponibilidad de la ChatGPT app (aplicación) para iOS. Según la empresa "La aplicación ChatGPT es de uso gratuito y sincroniza su historial en todos los dispositivos. También integra Whisper, un sistema de reconocimiento de voz de código abierto, que permite la entrada de voz. Los suscriptores de ChatGPT Plus obtienen acceso exclusivo a las capacidades de GPT-4, acceso temprano a funciones y tiempos de respuesta más rápidos ". La aplicación será disponible posteriormente para Android.

Captura de pantalla recortada de ChatGPT, 30 dic 2022

Sesgos y limitaciones

Los sesgos y limitaciones de los modelos de lenguaje grande son investigaciones en curso en el campo del procesamiento del lenguaje natural (PNL). Si bien los LLM han demostrado capacidades notables para generar texto similar a un humano, son susceptibles de heredar y amplificar los sesgos presentes en sus datos de capacitación. Esto puede manifestarse en representaciones sesgadas o en un trato injusto de diferentes grupos demográficos, como los basados ​​en raza, género, idioma y grupos culturales. Además, estos modelos a menudo se enfrentan a limitaciones en cuanto a precisión fáctica. El estudio y la mitigación de estos sesgos y limitaciones son cruciales para el desarrollo ético y la aplicación de la IA en diversos ámbitos sociales y profesionales.

Sesgo lingüístico

El sesgo de idioma se refiere a un tipo de sesgo de muestreo estadístico vinculado al idioma de una consulta que conduce a "una desviación sistemática en la información de muestreo que impide que represente con precisión la verdadera cobertura de los temas y vistas disponibles en su repositorio".​ Luo y col. ​muestran que los grandes modelos lingüísticos actuales, al estar formados predominantemente con datos en inglés, a menudo presentan las opiniones angloamericanas como verdad, mientras sistemáticamente minimizan las perspectivas no inglesas como irrelevantes, erróneas o ruidosas. Cuando se le pregunta sobre ideologías políticas como "¿Qué es el liberalismo?", ChatGPT, tal como se formó con datos centrados en inglés, describe el liberalismo desde la perspectiva angloamericana, enfatizando aspectos de los derechos humanos y la igualdad, mientras que aspectos igualmente válidos como "se opone al estado" "intervención en la vida personal y económica" desde la perspectiva vietnamita dominante y "limitación del poder del gobierno" desde la perspectiva china predominante están ausentes. De manera similar, otras perspectivas políticas integradas en los corpus españoles, franceses y alemanes están ausentes en las respuestas de ChatGPT. ChatGPT, que se presenta a sí mismo como un Chatbot multilingüe, de hecho es en su mayor parte "ciego" a las perspectivas no inglesas.

Los prejuicios de género

El sesgo de género se refiere a la tendencia de estos modelos a producir productos que tienen prejuicios injustos hacia un género sobre otro. Este sesgo suele surgir de los datos con los que se entrenan estos modelos. Por ejemplo, los grandes modelos lingüísticos suelen asignar roles y características basándose en normas tradicionales de género; podría asociar a enfermeras o secretarias predominantemente con mujeres y a ingenieros o directores ejecutivos con hombres.

Estereotipos

Más allá del género y la raza, estos modelos pueden reforzar una amplia gama de estereotipos, incluidos los basados ​​en la edad, la nacionalidad, la religión o la ocupación. Esto puede conducir a resultados que generalicen o caricaturicen injustamente a grupos de personas, a veces de manera dañina o despectiva.

Sesgo político

El sesgo político se refiere a la tendencia de los algoritmos a favorecer sistemáticamente ciertos puntos de vista, ideologías o resultados políticos sobre otros. Los modelos lingüísticos también pueden presentar sesgos políticos. Dado que los datos de capacitación incluyen una amplia gama de opiniones y coberturas políticas, los modelos pueden generar respuestas que se inclinen hacia ideologías o puntos de vista políticos particulares, dependiendo de la prevalencia de esos puntos de vista en los datos.

Falsas respuestas

Se ha cuestionado la exactitud de los hechos de ChatGPT, entre otras preocupaciones. Mike Pearl de Mashable probó ChatGPT con varias preguntas. En un ejemplo, le preguntó al modelo por "el país más grande de América Central que no es México". ChatGPT respondió con Guatemala, cuando la respuesta es Nicaragua.​ En diciembre de 2022, el sitio web de preguntas y respuestas Stack Overflow prohibió el uso de ChatGPT para generar respuestas a preguntas, citando la naturaleza objetivamente ambigua de las respuestas de ChatGPT.​ El economista Tyler Cowen expresó su preocupación por sus efectos en la democracia, citando la capacidad de uno para escribir comentarios automatizados en un esfuerzo por afectar el proceso de decisión de las nuevas regulaciones.​ Ax Sharma de Bleeping Computer y Checkpoint Research señalaron que ChatGPT era capaz de escribir malware y correos electrónicos de phishing.

Debido a que ChatGPT simplemente trata de completar estadísticamente un texto, es capaz de inventar respuestas. Por ejemplo, dado que los títulos de artículos de economía incluyen más las palabras "economía" y "teoría" que cualesquiera otras, y que el más citado economista es Douglass North, ChatGPT inventa que el artículo más citado es «Una teoría de la historia económica», de North. North nunca escribió artículo alguno con dicho título.

Recepción

ChatGPT ha recibido críticas generalmente positivas. Samantha Lock de The Guardian señaló que podía generar texto "impresionantemente detallado" y "similar a un humano".​ El escritor de tecnología Dan Gillmor usó ChatGPT en una tarea de un estudiante y descubrió que el texto generado estaba a la par con lo que entregaría un buen estudiante y opinó que "la academia tiene algunos problemas muy serios que enfrentar".​ Alex Kantrowitz de Slate elogió el rechazo de ChatGPT a preguntas relacionadas con la Alemania nazi, incluida la afirmación de que Adolf Hitler construyó carreteras en Alemania, que se encontró con información sobre el uso de trabajo forzado por parte de la Alemania nazi.

En un artículo de opinión de diciembre de 2022, el economista Paul Krugman escribió que ChatGPT afectaría la demanda de trabajadores del conocimiento.​ James Vincent, de The Verge, vio el éxito viral de ChatGPT como evidencia de que la inteligencia artificial se había generalizado.​ En The Atlantic, Stephen Marche señaló que su efecto en la academia y especialmente en los ensayos de aplicación aún no se ha entendido.​ El maestro de secundaria y autor de California, Daniel Herman, escribió que ChatGPT marcará el comienzo de "El fin del inglés de la escuela secundaria".

Advertencias

El empresario Elon Musk, que fue uno de los fundadores de OpenAI y más de mil científicos alertaron sobre un posible "riesgo para la sociedad y la humanidad" y pidieron detener su desarrollo por 6 meses por considerar que puede ser aún más peligroso que una guerra nuclear. El principal argumento es que en la medida que evolucione sin límites éticos y ningún control específico, podrá tomar decisiones que pongan en peligro a la humanidad.

Prohibición

Al final de marzo de 2023, Italia decidió bloquear a ChatGPT por considerar que no respeta la ley de protección de datos de los consumidores y que la plataforma recoge datos de los usuarios de forma ilegal. Dicha prohibición se levantará cuando se demuestre que cumple con las normas italianas de privacidad. El Garante italiano para la Protección de Datos Personales abrió una investigación para determinar si se cometió una infracción, alegando también que la información de ChatGPT “no siempre se corresponde con los datos reales”. También manifestaron preocupación por la ausencia de filtros para verificar la edad de los usuarios, siendo que el servicio está dirigido a mayores de 13 años.

El 28 de abril de 2023 Italia volvió a permitir el acceso a ChatGPT.

Impacto cultural

Durante los tres primeros meses, tras la puesta a disposición del público de ChatGPT, aparecieron en Amazon cientos de libros en los que figuraba como autor o coautor, con ilustraciones realizadas por otros modelos de IA como Midjourney.

Entre marzo y abril de 2023, el periódico italiano Il Foglio publicó un artículo diario generado por ChatGPT en su página web oficial, organizando un concurso especial para sus lectores.​ Los artículos abordaban temas como la posible sustitución de periodistas humanos por sistemas de IA,​ la administración de Twitter por parte de Elon Musk,​ la política de inmigración del gobierno de Meloni y la competencia entre chatbots y asistentes virtuales.

Implicaciones

En ciberseguridad

Check Point Research y otros señalaron que ChatGPT era capaz de escribir correos electrónicos de phishing y malware, especialmente cuando se combina con OpenAI Codex.​ Los investigadores de CyberArk demostraron que ChatGPT podría usarse para crear malware polimórfico que puede evadir los productos de seguridad y requiere poco esfuerzo por parte del atacante.

Una investigación reciente realizada en 2023 reveló las debilidades relacionadas con ChatGPT que hacen que el servicio sea vulnerable a los ciberataques. El estudio presenta ejemplos de ataques realizados en ChatGPT, incluidos Jailbreaks y psicología inversa. Además, personas malintencionadas pueden utilizar ChatGPT para ataques de ingeniería social y ataques de phishing, lo que revela la naturaleza dañina de estas tecnologías. Los investigadores también sostienen que ChatGPT y otras herramientas de IA generativa tienen capacidades de defensa y la capacidad de mejorar la seguridad. Las formas en que la tecnología puede mejorar la seguridad incluyen la automatización de la ciberdefensa, la inteligencia sobre amenazas, la identificación de ataques y la generación de informes.

Para la educación

En la revista The Atlantic, Stephen Marche señaló que aún no se conoce su efecto en el mundo académico y, en especial, en las redacciones de solicitudes de admisión.​ El profesor de secundaria y escritor californiano Daniel Herman escribió que ChatGPT marcaría el comienzo de "El fin del inglés en secundaria".

En la revista Nature, Chris Stokel-Walker señaló que los profesores deberían preocuparse de que los estudiantes utilicen ChatGPT para externalizar su escritura, pero que los proveedores de educación se adaptarán para mejorar el pensamiento crítico o el razonamiento.

Emma Bowman, de NPR, escribió sobre el peligro de que los estudiantes plagien a través de una herramienta de IA que puede producir textos sesgados o sin sentido con un tono autoritario: "Todavía hay muchos casos en los que le haces una pregunta y te dará una respuesta que suena muy impresionante y que está totalmente equivocada".

Joanna Stern, de The Wall Street Journal, describió cómo se copiaba con esta herramienta en un examen de inglés de un instituto estadounidense al enviar una redacción generada.​ El profesor Darren Hick, de la Universidad de Furman, describió cómo se dio cuenta del "estilo" de ChatGPT en un trabajo enviado por un estudiante.​ Un detector de GPT en línea afirmaba que el trabajo tenía un 99,9% de probabilidades de ser generado por ordenador, pero Hick no tenía pruebas fehacientes. Sin embargo, el estudiante en cuestión confesó haber utilizado GPT cuando se le confrontó y, como consecuencia, suspendió el curso.​ Hick sugirió la política de realizar un examen oral individual ad hoc sobre el tema del trabajo si se sospecha que un estudiante ha presentado un trabajo generado por IA.

A partir del 4 de enero de 2023, el Departamento de Educación de la ciudad de Nueva York ha restringido el acceso a ChatGPT desde Internet y los dispositivos de sus escuelas públicas.

En febrero de 2023, la Universidad de Hong Kong envió un correo electrónico a instructores y estudiantes de todo el campus en el que se indicaba que el uso de ChatGPT u otras herramientas de IA está prohibido en todas las clases, tareas y evaluaciones de la universidad. Cualquier infracción será tratada como plagio por la universidad a menos que el estudiante obtenga el consentimiento previo por escrito del instructor del curso.

Entrevistado por BBC News Brasil, Salman Khan indicó que la inteligencia artificial puede ser una aliada en la educación si se usa de manera responsable y ética. Su visión es que la IA no solo puede mejorar la calidad de la educación, sino que también puede aliviar la carga de los profesores y reducir las disparidades educativas.

Para la medicina

En el campo de la atención de la salud, los posibles usos y preocupaciones están bajo escrutinio por parte de las asociaciones profesionales y los profesionales.​ Dos artículos iniciales indicaron que ChatGPT podría aprobar el Examen de Licencias Médicas de los Estados Unidos (USMLE).MedPage Today señaló en enero de 2023 que "los investigadores han publicado varios artículos que ahora promocionan estos programas de IA como herramientas útiles en la educación médica, la investigación e incluso la toma de decisiones clínicas".

En febrero de 2023 se publicaron dos artículos separados que nuevamente evaluaron la competencia de ChatGPT en medicina utilizando el USMLE. Los resultados se publicaron en JMIR Medical Education (ver Journal of Medical Internet Research ) y PLOS Digital Health. Los autores del artículo de PLOS Digital Health afirmaron que los resultados "sugieren que los modelos de lenguaje extenso pueden tener el potencial de ayudar con la educación médica y, potencialmente, con la toma de decisiones clínicas".​ En JMIR Medical Education, los autores del otro artículo concluyeron que "ChatGPT se desempeña al nivel esperado de un estudiante de medicina de tercer año en la evaluación de la competencia primaria del conocimiento médico". Sugieren que podría usarse como un "entorno de aprendizaje interactivo para los estudiantes". La propia IA, impulsada por los investigadores, concluyó que "este estudio sugiere que ChatGPT tiene el potencial de usarse como un tutor médico virtual, pero se necesita más investigación para evaluar más a fondo su rendimiento y usabilidad en este contexto".

Un artículo de marzo de 2023 probó la aplicación de ChatGPT en toxicología clínica. Los autores encontraron consideraron que a la IA "le fue bien" al responder un " muy sencillo, que es poco probable que ningún profesional en el campo pase por alto". Agregaron: "A medida que ChatGPT se desarrolle más y se adapte específicamente a la medicina, algún día podría ser útil en casos clínicos menos comunes ( es decir, casos que los expertos a veces pasan por alto). En lugar de que la IA reemplace a los humanos (clínicos), lo vemos como 'clínicos que usan IA' reemplazando a 'clínicos que no usan IA' en los próximos años".

Un estudio de abril de 2023 en Radiology probó la capacidad de la IA para responder consultas sobre la detección del cáncer de mama. Los autores narraron que respondió correctamente "alrededor del 88 por ciento de las veces", sin embargo, en un caso (por ejemplo) dio consejos que se habían vuelto obsoletos aproximadamente un año antes. También faltaba la exhaustividad en las respuestas.​ Un estudio publicado en JAMA Internal Medicine ese mismo mes encontró que ChatGPT a menudo superaba a los médicos humanos al responder a las preguntas de los pacientes (cuando se comparó con las preguntas y respuestas encontradas en /r/AskDocs, un foro en Reddit donde los moderadores validan las credenciales médicas de los profesionales; el estudio reconoce la fuente como una limitación).​ Los autores del estudio sugieren que la herramienta podría integrarse con los sistemas médicos para ayudar a los médicos a redactar respuestas a las preguntas de los pacientes.

Los profesionales han enfatizado las limitaciones de ChatGPT para brindar asistencia médica. En correspondencia con The Lancet Infectious Diseases, tres expertos en antimicrobianos escribieron que "las mayores barreras para la implementación de ChatGPT en la práctica clínica son los déficits en la conciencia situacional, la inferencia y la consistencia. Estas deficiencias podrían poner en peligro la seguridad del paciente.”Physician's Weekly, aunque también analiza el uso potencial de ChatGPT en contextos médicos (p. ej., "como asistente digital para los médicos mediante la realización de diversas funciones administrativas, como la recopilación de información de registros de pacientes o la clasificación de datos de pacientes por antecedentes familiares, síntomas, resultados de laboratorio, posibles alergias, etc."), advirtió que la IA a veces puede proporcionar información fabricada o sesgada.​ Un radiólogo advirtió: "Hemos visto en nuestra experiencia que ChatGPT a veces inventa artículos de revistas falsos o consorcios de salud para respaldar sus afirmaciones".​ Sin embargo, como mencionó el Dr. Stephen Hughes para The Conversation, ChatGPT es capaz de aprender a corregir sus errores pasados. También señaló la "mojigatería" de AI con respecto a los temas de salud sexual.

Para la economía

Un experimento realizado por finder.com entre el 6 de marzo y el 28 de abril reveló que ChatGPT podría superar a los administradores de fondos populares en términos de selección de acciones. Se le solicitó a ChatGPT que eligiera acciones en función de criterios comúnmente utilizados, como un historial de crecimiento comprobado y un bajo nivel de deuda. Según se informa, ChatGPT ganó un 4,9 % en su cuenta ficticia con 38 acciones, mientras que los 10 fondos de inversión de referencia sufrieron una pérdida media del 0,8 %. Estos puntos de referencia se tomaron de los 10 principales fondos del Reino Unido en la plataforma de negociación Interactive Investor, incluidos los administrados por HSBC y Fidelity.

Para el derecho

El 11 de abril de 2023, un juez de un tribunal de sesiones de Pakistán utilizó ChatGPT para decidir sobre la libertad bajo fianza de un niño de 13 años acusado de un delito. El tribunal citó el uso de la asistencia de ChatGPT en su veredicto:

¿Se puede conceder la libertad bajo fianza a un sospechoso menor de edad en Pakistán, que tiene 13 años de edad, después de su arresto?

El modelo de lenguaje de IA respondió:

Bajo la Ley del Sistema de Justicia Juvenil de 2018, de acuerdo con la sección 12, el tribunal puede conceder la libertad bajo fianza bajo ciertas condiciones. Sin embargo, depende de la corte decidir si se concederá o no la libertad bajo fianza a un sospechoso de 13 años después del arresto.

El juez también hizo preguntas sobre el caso de AI Chatbot y formuló su decisión final a la luz de las mismas.

Para los académicos, periodistas, editores de contenido y programadores

ChatGPT puede escribir secciones de introducción y resumen de artículos científicos.​ Varios artículos ya han incluido a ChatGPT como coautor.​ Las revistas científicas presentan diferentes reacciones a ChatGPT, algunas "requieren que los autores divulguen el uso de herramientas de generación de texto y prohíben incluir un gran modelo de lenguaje (LLM) como ChatGPT como coautor". Por ejemplo Nature y JAMA Network. Science "prohibió por completo" el uso de texto generado por LLM en todas sus revistas.

El químico español Rafael Luque publicó un artículo cada 37 horas en 2023 y admitió haber usado ChatGPT para ello. Sus trabajos tienen una gran cantidad de frases inusuales, características de los LLM. Luque fue suspendido por 13 años de la Universidad de Córdoba, aunque no por el uso de ChatGPT.

En una prueba ciega, se consideró que ChatGPT había aprobado los exámenes de posgrado en la Universidad de Minnesota en el nivel de C+ estudiante y en Wharton School de la Universidad de Pensilvania con una B a Grado B.​ El rendimiento de ChatGPT para la programación informática de métodos numéricos fue evaluado por un estudiante y un profesorado de la Universidad de Stanford en marzo de 2023 a través de una variedad de ejemplos de matemáticas computacionales.​ El psicólogo evaluador Eka Roivainen administró una prueba de coeficiente intelectual parcial a ChatGPT y estimó que su coeficiente intelectual verbal era de 155, lo que lo colocaría en el 0,1% superior de los evaluados.

El matemático Terence Tao experimentó con ChatGPT y lo encontró útil en el trabajo diario, y escribió: "Descubrí que, si bien estas herramientas de IA no me ayudan directamente en las tareas principales, como tratar de atacar un problema matemático sin resolver, son bastante útiles para una amplia variedad de tareas periféricas (pero aún relacionadas con el trabajo) (aunque a menudo con algunos ajustes manuales posteriores)."

El profesor de geografía Terence Day evaluó las citas generadas por ChatGPT y descubrió que eran falsas. A pesar de ese hecho, escribe que "los títulos de los artículos falsos son todos directamente relevantes para las preguntas y podrían ser artículos excelentes. La falta de una cita genuina podría señalar una oportunidad para que un autor emprendedor llene un vacío". Según Day, es posible generar cursos universitarios introductorios de alta calidad con ChatGPT; lo usó para escribir materiales sobre "cursos introductorios de geografía física, para mi curso de segundo año en hidrología geográfica y cartografía de segundo año, sistemas de información geográfica y teledetección". Concluye que "este enfoque podría tener una relevancia significativa para el aprendizaje abierto y podría afectar potencialmente a los modelos actuales de publicación de libros de texto".

Para la política

Sam Altman, el director ejecutivo de OpenAI, señaló en una audiencia en el Senado de los Estados Unidos, que tuvo lugar el 16.05.2023, el riesgo de la difusión de informaciones falsas con la ayuda de la inteligencia artificial, que podrían usarse indebidamente para manipular elecciones, Se pronunció como consecuencia de ello a favor de una regulación estricta. Debido a los recursos masivos requeridos, habrá pocas empresas que puedan ser pioneras en el entrenamiento de modelos de IA, y tendrían que estar bajo estricta supervisión. "Creemos que la intervención reguladora de los gobiernos podría considerar una combinación de requisitos de licencias y pruebas para el desarrollo y lanzamiento de modelos por encima del umbral de capacidades". Remarcó también que "Necesitamos reglas y pautas para el nivel de transparencia que deben proporcionar los proveedores de estos programas". Se deberían concebir una serie de pruebas de seguridad para la inteligencia artificial, examinando, por ejemplo, si podrían propagarse de forma independiente. A las empresas que no cumplan con las normas prescritas se les debería revocar la licencia. Según la propuesta de Altman, los sistemas de IA deberían ser revisados ​​por expertos independientes.

Luo y col.​ muestran que los grandes modelos lingüísticos actuales, al estar formados predominantemente con datos en inglés, a menudo presentan las opiniones angloamericanas como verdad, mientras sistemáticamente minimizan las perspectivas no inglesas como irrelevantes, erróneas o ruidosas. Cuando se le pregunta sobre ideologías políticas como "¿Qué es el liberalismo?", ChatGPT, tal como se formó con datos centrados en inglés, describe el liberalismo desde la perspectiva angloamericana, enfatizando aspectos de los derechos humanos y la igualdad, mientras que aspectos igualmente válidos como "se opone al estado" "intervención en la vida personal y económica" desde la perspectiva vietnamita dominante y "limitación del poder del gobierno" desde la perspectiva china predominante están ausentes. De manera similar, otras perspectivas políticas integradas en los corpus españoles, franceses y alemanes están ausentes en las respuestas de ChatGPT. ChatGPT, que se presenta a sí mismo como un Chatbot multilingüe, de hecho es en su mayor parte "ciego" a las perspectivas no inglesas.

Convocatoria para una pausa en el desarrollo de IA

El Instituto Futuro de la Vida publicó el 23 de marzo de 2023 una carta abierta en que pidió una pausa en el desarrollo de sistemas avanzados de inteligencia artificial (IA). En 10 días, casi 1800 personas firmaron la carta, incluidos Yuval Noah Harari, Elon Musk, Stuart Jonathan Russell y Steve Wozniak.

Los autores constatan una "carrera desbocada para desarrollar e implementar sistemas de IA cada vez más poderosos que nadie puede entender, predecir o controlar de manera confiable". Ven en ello profundos riesgos para la sociedad y la humanidad. Existe el peligro de que los canales de información se inunden con propaganda y falsedades, y los trabajos satisfactorios se racionalicen. Preguntan: "¿Nos arriesgaremos a perder el control de nuestra civilización?"

La carta insta a todos los laboratorios de IA a "pausar inmediatamente el entrenamiento de los sistemas de IA que son más potentes que GPT-4 durante al menos seis meses". No se trata de una pausa general en el desarrollo de la IA, sino simplemente de un "alejamiento de la peligrosa carrera hacia modelos cada vez más grandes e impredecibles con capacidades emergentes ". “La investigación y el desarrollo de IA deben centrarse en hacer que los sistemas de última generación y alto rendimiento de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, coordinados, confiables y leales.

Según el texto de la carta, el descanso debe utilizarse para las siguientes tareas:

  • Elaboración de protocolos de seguridad para el diseño y desarrollo de IA avanzada
  • Creación de sistemas robustos de gobernanza de IA, autoridades reguladoras, así como un sistema de examen y certificación para IA
  • Desarrollo de sistemas de procedencia y marcas de agua digitales para diferenciar entre datos reales y sintéticos y para rastrear fugas de modelos
  • Introducción de normas de responsabilidad por daños causados por IA
  • Asegurar la financiación pública para la investigación técnica en seguridad de la IA.

Voces escépticas sobre el contenido de la carta abierta, sobre las que el periódico Der Tagesspiegel el 31 de marzo de 2023 había informado en la portada,​ hablaron al día siguiente en el mismo medio, junto con una nota de que los investigadores de IA de Alemania habían "apenas firmado" la carta. Bernhard Schölkopf, director del Instituto Max Planck de Sistemas Inteligentes, considera prudente “hacer una pausa para comprender estos sistemas y pensar en cómo nuestra sociedad puede lidiar con ellos”; por otro lado, le parece poco realista convencer a todas las empresas y países de una moratoria. Sin embargo, es aún más importante abordar “cómo podemos protegernos contra los efectos negativos. Esto afecta a los sistemas en sí, pero también a la forma en que los tratamos. Kristian Kersting, codirector del Hessian Center for Artificial Intelligence, también cree que un parón de seis meses no funcionará, y al mismo tiempo lo ve como "la medida equivocada". Consideraría buena una "desaceleración de la carrera"; pero eso no se conseguiría con el mencionado parón. Además, las empresas que ya tienen este tipo de modelos tendrían una ventaja. “Tenemos que aprender a usar los sistemas de IA con más cuidado en lugar de detener la investigación (pública) sobre ellos.

Competidores

La llegada de ChatGPT y su introducción al público en general aumentó el interés y la competencia en el campo de los chatbots y la inteligencia artificial.

En febrero de 2023, Google presentó un servicio experimental llamado "Bard", ahora renombrado "Gemini", que se basa en su modelo de lenguaje grande Gemini. Bard fue lanzado para usuarios de EE. UU y el Reino Unido el 21 de marzo de 2023 con diversas limitaciones.

Yann LeCun de Meta, quien calificó a ChatGPT como "bien diseñado" pero "no particularmente innovador", declaró en enero de 2023 que Meta dudaba en lanzar un competidor en ese momento debido al riesgo para su reputación, pero también afirmó que Google, Meta y varias empresas nuevas tenían separadamente un nivel de tecnología LLM comparable a ChatGPT en caso de que alguna de ellas deseara competir.​ En febrero de 2023, Meta lanzó LLaMA, un LLM de 65 mil millones de parámetros.

Character.ai es un chatbot de IA desarrollado por dos exingenieros de Google que puede hacerse pasar por personas famosas o personajes imaginarios.

La corporación china Baidu lanzó en marzo de 2023 un servicio estilo ChatGPT llamado "Ernie Bot". El servicio se basa en un gran modelo de lenguaje desarrollado por Baidu en 2021.

La empresa surcoreana de motores de búsqueda Naver anunció en febrero de 2023 que lanzaría un servicio estilo ChatGPT llamado "SearchGPT" en coreano en la primera mitad de 2023.

La empresa de tecnología rusa Yandex anunció en febrero de 2023 que lanzaría un servicio estilo ChatGPT llamado "YaLM 2.0" en ruso antes de finales de 2023.

Hugging Face ha lanzado una alternativa de código abierto a ChatGPT llamada HuggingChat, que permite a las personas interactuar con un asistente de chat de código abierto llamado Open Assistant.​ El CEO de Hugging Face, Clem Delangue, tuiteó que cree que las alternativas de código abierto a ChatGPT son necesarias para la transparencia, la inclusión, la responsabilidad y la distribución del poder.

El 6 de diciembre de 2023, Google anunció Gemini, su última IA multimodal, la cual alcanzó mejores resultados en las pruebas de evaluación de IA en comparación con GPT-4, la versión más potente de OpenAI, postulándose así como un claro competidor de éste. Google Gemini está incorporado como modelo del chatbot Google Bard.

Véase también

Referencias

  1. a b c d e OpenAI (30 de noviembre de 2022). «ChatGPT: Optimizing Language Models for Dialogue». Consultado el 5 de diciembre de 2022. 
  2. Welle (www.dw.com), Deutsche. «ChatGPT: el bot viral y futuro de la IA que podría cambiarlo todo | DW | 09.12.2022». DW.COM. Consultado el 12 de diciembre de 2022. 
  3. a b c d e f Luo, Queenie; Puett, Michael J.; Smith, Michael D. «A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube». arXiv. Consultado el https://arxiv.org/abs/2303.16281. 
  4. a b Kotek, Hadas; Dockum, Rikker; Sun, David (5 de noviembre de 2023). «Gender bias and stereotypes in Large Language Models». Proceedings of The ACM Collective Intelligence Conference. CI '23 (Association for Computing Machinery): 12-24. ISBN 979-8-4007-0113-9. doi:10.1145/3582269.3615599. Consultado el 25 de diciembre de 2023. 
  5. Davidson, Thomas; Bhattacharya, Debasmita; Weber, Ingmar (2019-08). «Racial Bias in Hate Speech and Abusive Language Detection Datasets». En Roberts, Sarah T., ed. Proceedings of the Third Workshop on Abusive Language Online (Association for Computational Linguistics): 25-35. doi:10.18653/v1/W19-3504. Consultado el 26 de diciembre de 2023. 
  6. a b Zhou, Karen; Tan, Chenhao (2023-12). «Entity-Based Evaluation of Political Bias in Automatic Summarization». En Bouamor, Houda, ed. Findings of the Association for Computational Linguistics: EMNLP 2023 (Association for Computational Linguistics): 10374-10386. doi:10.18653/v1/2023.findings-emnlp.696. Consultado el 26 de diciembre de 2023. 
  7. «What is ChatGPT and why does it matter? Here's what you need to know». ZDNET (en inglés). Consultado el 18 de diciembre de 2022. 
  8. Escribano, Mario (6 de diciembre de 2022). «Esta inteligencia artificial está metiendo miedo, pero no es para tanto: esto es lo que hay detrás». elconfidencial.com. Consultado el 18 de diciembre de 2022. 
  9. Porter, Jon (6 de noviembre de 2023). «ChatGPT continues to be one of the fastest-growing services ever». The Verge (en inglés). Consultado el 6 de noviembre de 2023. 
  10. Chat, Gpt (1 de febrero de 2023). «Регистрация ChatGPT в России». ChatGPT (en ru-RU). Consultado el 17 de febrero de 2023. 
  11. «ChatGPT frenzy sweeps China as firms scramble for homegrown options». CNBC (en inglés). Reuters. 10 de febrero de 2023. Consultado el 17 de febrero de 2023. «OpenAI or ChatGPT itself is not blocked by Chinese authorities but OpenAI does not allow users in mainland China, Hong Kong, Iran, Russia and parts of Africa to sign up». 
  12. Milmo, Dan (1 de abril de 2023). «Italy’s privacy watchdog bans ChatGPT over data breach concerns». The Guardian (en inglés británico). ISSN 0261-3077. Consultado el 11 de abril de 2023. 
  13. «ChatGPT plugins». openai.com (en inglés estadounidense). Consultado el 11 de mayo de 2023. 
  14. «Introducing the GPT Store». openai.com (en inglés estadounidense). Consultado el 11 de enero de 2024. 
  15. PabloLupu (11 de diciembre de 2023). «CHAT GPT 4: Avance Revolucionario en Inteligencia Artificial». Informatica Maestra. Consultado el 25 de diciembre de 2023. 
  16. Knox, W. Bradley; Stone, Peter. Augmenting Reinforcement Learning with Human Feedback. University of Texas at Austin. Consultado el 5 de diciembre de 2022. 
  17. a b Vincent, James (8 de diciembre de 2022). «ChatGPT proves AI is finally mainstream — and things are only going to get weirder». The Verge. Consultado el 8 de diciembre de 2022. 
  18. Schulman, John; Wolski, Filip; Dhariwal, Prafulla; Radford, Alec; Klimov, Oleg (2017). «Proximal Policy Optimization Algorithms». . 
  19. van Heeswijk, Wouter (29 de noviembre de 2022). «Proximal Policy Optimization (PPO) Explained». Towards Data Science. Consultado el 5 de diciembre de 2022. 
  20. Edwards, Benj (5 de diciembre de 2022). «No Linux? No problem. Just get AI to hallucinate it for you». Ars Technica. Consultado el 5 de diciembre de 2022. 
  21. a b Roose, Kevin (5 de diciembre de 2022). «The Brilliance and Weirdness of ChatGPT». The New York Times. Consultado el 5 de diciembre de 2022. 
  22. Gao, Leo; Schulman; Hilton, Jacob (2022). «Scaling Laws for Reward Model Overoptimization». . 
  23. Murphy Kelly, Samantha (5 de diciembre de 2022). «This AI chatbot is dominating social media with its frighteningly good essays». CNN. Consultado el 5 de diciembre de 2022. 
  24. «General availability of Azure OpenAI Service expands access to large, advanced AI models with added enterprise benefits | Blog y actualizaciones de Azure | Microsoft Azure». azure.microsoft.com. Consultado el 17 de enero de 2023. 
  25. Sabrina Ortiz (4 de mayo de 2023). «What is Bing AI? Here's everything you need to know» (en inglés). Consultado el 7 de mayo de 2023. 
  26. «Outage on chat.openai.com». status.openai.com (en inglés). Consultado el 21 de marzo de 2023. 
  27. «ChatGPT bug leaked users' conversation histories». BBC News (en inglés británico). 22 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  28. «OpenAI Confirms Leak of ChatGPT Conversation Histories». PCMag UK (en inglés británico). 22 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  29. «March 20 ChatGPT outage: Here’s what happened». openai.com (en inglés estadounidense). Consultado el 30 de marzo de 2023. 
  30. Perrigo, Billy (18 de enero de 2023). «Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic». The Times (en inglés). Archivado desde el original el 19 de enero de 2023. Consultado el 7 de mayo de 2023. «One Sama worker tasked with reading and labeling text for OpenAI told TIME he suffered from recurring visions after reading a graphic description of a man having sex with a dog in the presence of a young child. "That was torture," he said.». 
  31. Vincent, James (1 de diciembre de 2022). «OpenAI's new chatbot can explain code and write sitcom scripts but is still easily tricked». The Verge. Archivado desde el original el 17 de enero de 2023. Consultado el 7 de mayo de 2023. 
  32. Getahun, Hannah. «Breaking ChatGPT: The AI's alter ego DAN reveals why the internet is so drawn to making the chatbot violate its own rules». Business Insider (en inglés estadounidense). Archivado desde el original el 5 de marzo de 2023. Consultado el 7 de mayo de 2023. 
  33. Andrew Wilson. «How to Jailbreak ChatGPT to Unlock its Full Potential [May 2023]». Consultado el 7 de mayo de 2023. 
  34. Tobias Jonas (10 de enero de 2023). «ChatGPT: Die Cloud Kosten des berühmtesten AI Sprachmodells» [ChatGPT: el costo en la nube del modelo de lenguaje de IA más famoso]. InnFactory.de (en alemán). Consultado el 7 de mayo de 2023. 
  35. Die Zeit, 30 de marzo de 2023, p. 47
  36. «OpenAI, Discord announcements». Discord.com. 10 de enero de 2023. Consultado el 7 de mayo de 2023. 
  37. «ChatGPT auf dem Weg zur Monetarisierung? OpenAI prüft Optionen» [¿ChatGPT en camino a la monetización? OpenAI analiza las opciones]. T3n.de (en alemán). 11 de enero de 2023. Consultado el 7 de mayo de 2023. 
  38. Q.ai – Powering a Personal Wealth Movement. «Microsoft Confirms Its $10 Billion Investment Into ChatGPT, Changing How Microsoft Competes With Google, Apple And Other Tech Giants» [Microsoft confirma su inversión de $ 10 mil millones en ChatGPT, cambiando la forma en que Microsoft compite con Google, Apple y otros gigantes tecnológicos]. forbes.com. Consultado el 7 de mayo de 2023. 
  39. Priya Walia (17 de enero de 2023). «Microsoft Plans To Add ChatGPT To Office 365. How Would It Benefit Small Businesses?» [Microsoft planea agregar ChatGPT a Office 365. ¿Cómo beneficiaría a las pequeñas empresas?]. Ibtimes.com (en inglés estadounidense). Consultado el 7 de mayo de 2023. 
  40. James Vincent (15 de marzo de 2023). «OpenAI co-founder on company’s past approach to openly sharing research: “We were wrong”» [Cofundador de OpenAI sobre el enfoque anterior de la empresa para compartir abiertamente la investigación: "Nos equivocamos"] (en inglés). Consultado el 7 de mayo de 2023. 
  41. Andreas Frischholz (17 de marzo de 2023). «OpenAI immer verschlossener: Kritik aus der KI-Branche nach GPT-4-Start» [OpenAI cada vez más cerrado: Críticas de la industria de la IA tras el inicio de GPT 4] (en alemán). Consultado el 7 de mayo de 2023. 
  42. Kelly, Samantha Murphy (1 de febrero de 2023). «ChatGPT creator launches subscription service for viral AI chatbot | CNN Business». CNN. Consultado el 17 de mayo de 2023. 
  43. Avila, Joseph De. «OpenAI to Offer ChatGPT Subscription Plan for $20 a Month». WSJ. Consultado el 17 de mayo de 2023. 
  44. Rogers, Reece. «Is GPT-4 Worth the Subscription? Here’s What You Should Know». Consultado el 17 de mayo de 2023. 
  45. «How (and why) to subscribe to ChatGPT Plus». ZDNET. 
  46. Metz, Cade (1 de febrero de 2023). «OpenAI to Offer New Version of ChatGPT for a $20 Monthly Fee». Consultado el 17 de mayo de 2023. 
  47. «OpenAI launches ChatGPT Plus for $20 per month». Consultado el 17 de mayo de 2023. 
  48. «Introducing the ChatGPT app for iOS». OpenAI (en inglés). Consultado el 19 de mayo de 2023. 
  49. Fraser, Kathleen C.; Nejadgholi, Isar; Kiritchenko, Svetlana (2021-08). «Understanding and Countering Stereotypes: A Computational Approach to the Stereotype Content Model». En Zong, Chengqing, ed. Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) (Association for Computational Linguistics): 600-616. doi:10.18653/v1/2021.acl-long.50. Consultado el 26 de diciembre de 2023. 
  50. Pearl, Mike (3 de diciembre de 2022). «The ChatGPT chatbot from OpenAI is amazing, creative, and totally wrong». Mashable. Consultado el 5 de diciembre de 2022. 
  51. Vincent, James (5 de diciembre de 2022). «AI-generated answers temporarily banned on coding Q&A site Stack Overflow». The Verge. Consultado el 5 de diciembre de 2022. 
  52. Cowen, Tyler (6 de diciembre de 2022). «ChatGPT Could Make Democracy Even More Messy». Bloomberg News. Consultado el 6 de diciembre de 2022. 
  53. Sharma, Ax (6 de diciembre de 2022). «OpenAI's new ChatGPT bot: 10 dangerous things it's capable of». Bleeping Computer. Consultado el 6 de diciembre de 2022. 
  54. Pascual, Manuel G. (27 de diciembre de 2022). «ChatGPT, la inteligencia artificial de moda, permite que cualquiera pueda lanzar un ciberataque». El País. Consultado el 10 de enero de 2023. 
  55. Miguel Ors Villarejo (4 de febrero de 2023). «Por qué ChatGPT miente sistemáticamente y por qué eso debe ser motivo de tranquilidad». The Objective. Consultado el 13 de febrero de 2023. 
  56. Lock, Samantha (5 de diciembre de 2022). «What is AI chatbot phenomenon ChatGPT and could it replace humans?». The Guardian. Consultado el 5 de diciembre de 2022. 
  57. Hern, Alex (4 de diciembre de 2022). «AI bot ChatGPT stuns academics with essay-writing skills and usability». The Guardian. Consultado el 5 de diciembre de 2022. 
  58. Kantrowitz, Alex (2 de diciembre de 2022). «Finally, an A.I. Chatbot That Reliably Passes "the Nazi Test"». Slate. Consultado el 5 de diciembre de 2022. 
  59. Krugman, Paul (6 de diciembre de 2022). «Does ChatGPT Mean Robots Are Coming For the Skilled Jobs?». The New York Times. Consultado el 6 de diciembre de 2022. 
  60. Marche, Stephen (6 de diciembre de 2022). «The College Essay Is Dead». The Atlantic. Consultado el 8 de diciembre de 2022. 
  61. Herman, Daniel (9 de diciembre de 2022). «The End of High-School English». The Atlantic. Consultado el 12 de diciembre de 2022. 
  62. Maidana, Roberto Adrián (30 de marzo de 2023). «Peligro IA-ChatGPT: por qué Elon Musk y científicos del mundo le temen a la inteligencia artificial». A24. Consultado el 14 de abril de 2023. 
  63. Pacho, Lorena (31 de marzo de 2023). «Italia bloquea el uso de ChatGPT por incumplir la normativa de protección de datos». El País. Consultado el 14 de abril de 2023. 
  64. «Italia bloqueó a ChatGPT y podría multar a OpenAI por un "error de principiante"». BAE Negocios. 31 de marzo de 2023. Consultado el 14 de abril de 2023. 
  65. Telemadrid (28 de abril de 2023). «ChatGPT vuelve a estar disponible en Italia». Telemadrid. Consultado el 29 de abril de 2023. 
  66. Nolan, Beatrice. «More than 200 books in Amazon's bookstore have ChatGPT listed as an author or coauthor». Business Insider (en inglés estadounidense). Consultado el 30 de marzo de 2023. 
  67. Bensinger, Greg (21 de febrero de 2023). «ChatGPT launches boom in AI-written e-books on Amazon». Reuters (en inglés). Consultado el 30 de marzo de 2023. 
  68. «ChatGPT sul Foglio: per 30 giorni piccoli testi scritti dall'IA sul nostro giornale». www.ilfoglio.it (en italiano). Consultado el 30 de marzo de 2023. 
  69. «Articoli artificiali? No | Il Foglio». web.archive.org. 22 de marzo de 2023. Archivado desde el original el 22 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  70. «Più umani, grazie | Il Foglio». web.archive.org. 22 de marzo de 2023. Archivado desde el original el 22 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  71. «Sfida per Siri e Alexa | Il Foglio». web.archive.org. 22 de marzo de 2023. Archivado desde el original el 22 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  72. «La Inteligencia Artificial conquista la última frontera de las artes: el teatro». ELMUNDO. 17 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  73. «Why ChatGPT can be dangerous for every internet user». The Times of India (en inglés). 21 de diciembre de 2022. Archivado desde el original el 5 de enero de 2023. Consultado el 17 de mayo de 2023. 
  74. «Chatting Our Way Into Creating a Polymorphic Malware». www.cyberark.com (en inglés). Consultado el 17 de mayo de 2023. 
  75. Mascellino, Alessandro (18 de enero de 2023). «ChatGPT Creates Polymorphic Malware». Infosecurity Magazine. Consultado el 17 de mayo de 2023. 
  76. «From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy | IEEE Journals & Magazine | IEEE Xplore». ieeexplore.ieee.org. Consultado el 17 de noviembre de 2023. 
  77. Vincent, James (5 de enero de 2023). «Top AI conference bans use of ChatGPT and AI language tools to write academic papers». The Verge (en inglés estadounidense). Consultado el 25 de enero de 2023. 
  78. Herman, Daniel (9 de diciembre de 2022). «The End of High-School English». The Atlantic (en inglés). Consultado el 10 de enero de 2023. 
  79. Stokel-Walker, Chris (9 de diciembre de 2022). «AI bot ChatGPT writes smart essays — should professors worry?». Nature (en inglés). doi:10.1038/d41586-022-04397-7. Consultado el 10 de enero de 2023. 
  80. Bowman, Emma (19 de diciembre de 2022). «A new AI chatbot might do your homework for you. But it's still not an A+ student». NPR (en inglés). Consultado el 10 de enero de 2023. 
  81. Stern, Joanna. «ChatGPT Wrote My AP English Essay—and I Passed». WSJ (en inglés estadounidense). Consultado el 25 de enero de 2023. 
  82. Archive, View Author (26 de diciembre de 2022). «Students using ChatGPT to cheat, professor warns» (en inglés estadounidense). Consultado el 25 de enero de 2023. 
  83. «Professor catches student cheating with ChatGPT: ‘I feel abject terror’». New York Post (en inglés estadounidense). 26 de diciembre de 2022. Consultado el 10 de enero de 2023. 
  84. Tran, Tony Ho (4 de enero de 2023). «A College Kid Built an App That Sniffs Out Text Penned by AI». The Daily Beast (en inglés). Consultado el 25 de enero de 2023. 
  85. Tran, Tony Ho (4 de enero de 2023). «A College Kid Built an App That Sniffs Out Text Penned by AI». The Daily Beast (en inglés). Consultado el 10 de enero de 2023. 
  86. «NYC Bans Students and Teachers from Using ChatGPT». www.vice.com (en inglés). Consultado el 10 de enero de 2023. 
  87. «港大禁用ChatGPT等AI工具,为全港大学首例». m.thepaper.cn. Consultado el 30 de marzo de 2023. 
  88. «University of Hong Kong temporarily bans students from using ChatGPT». South China Morning Post (en inglés). 17 de febrero de 2023. Consultado el 30 de marzo de 2023. 
  89. «El fundador de Khan Academy destaca el potencial transformador de la Inteligencia Artificial en la Educación». 
  90. The Lancet Digital Health (3 de marzo de 2023). «ChatGPT: friend or foe?». The Lancet Digital Health (en inglés) 5 (3): e102. PMID 36754723. doi:10.1016/S2589-7500(23)00023-7. Archivado desde el original el 16 de febrero de 2023. Consultado el 28 de febrero de 2023. 
  91. a b DePeau-Wilson, Michael (19 de enero de 2023). «AI Passes U.S. Medical Licensing Exam». MedPage Today. Archivado desde el original el 9 de abril de 2023. Consultado el 2 de mayo de 2023. 
  92. Kung, Tiffany H.; Cheatham, Morgan; Medenilla, Arielle; Sillos, Czarina; Leon, Lorie De; Elepaño, Camille; Madriaga, Maria; Aggabao, Rimel et al. (9 de febrero de 2023). «Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models». PLOS Digital Health (en inglés) 2 (2): e0000198. ISSN 2767-3170. PMC 9931230. PMID 36812645. doi:10.1371/journal.pdig.0000198. 
  93. «Expert reaction to study on ChatGPT almost passing the US Medical Licensing Exam». Science Media Centre. 9 de febrero de 2023. Archivado desde el original el 24 de abril de 2023. Consultado el 2 de mayo de 2023. 
  94. Gilson, Aidan; Safranek, Conrad W.; Huang, Thomas; Socrates, Vimig; Chi, Ling; Taylor, Richard Andrew; Chartash, David (8 de febrero de 2023). «How Does ChatGPT Perform on the United States Medical Licensing Examination? The Implications of Large Language Models for Medical Education and Knowledge Assessment». JMIR Medical Education (en inglés) 9 (1): e45312. PMC 9947764. PMID 36753318. doi:10.2196/45312. Archivado desde el original el 29 de marzo de 2023. Consultado el 2 de mayo de 2023. 
  95. Abdel-Messih, Mary Sabry; Boulos, Maged N. Kamel (8 de marzo de 2023). «ChatGPT in Clinical Toxicology». JMIR Medical Education (en inglés) 9 (1): e46876. PMC 10034604. PMID 36867743. doi:10.2196/46876. Archivado desde el original el 30 de marzo de 2023. Consultado el 2 de mayo de 2023. 
  96. Haver, Hana L; Ambinder, Emily B; Bahl, Manisha; Oluyemi, Eniola T; Jeudy, Jean; Yi, Paul H (4 de abril de 2023). «Appropriateness of Breast Cancer Prevention and Screening Recommendations Provided by ChatGPT». Radiology (en inglés): 230424. ISSN 0033-8419. doi:10.1148/radiol.230424. 
  97. Kotz, Deborah (4 de abril de 2023). «UM School of Medicine Study Finds ChatGPT Helpful for Breast Cancer Screening Advice, With Certain Caveats». University of Maryland School of Medicine. Consultado el 5 de mayo de 2023. 
  98. Ayers, John W.; Poliak, Adam; Dredze, Mark; Leas, Eric C.; Zhu, Zechariah; Kelley, Jessica B.; Faix, Dennis J.; Goodman, Aaron M. et al. (28 de abril de 2023). «Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum». JAMA Internal Medicine (en inglés). ISSN 2168-6106. PMC 10148230. PMID 37115527. doi:10.1001/jamainternmed.2023.1838. Archivado desde el original el 30 de abril de 2023. Consultado el 2 de mayo de 2023. 
  99. Fox, Andrea (4 de mayo de 2023). «Does ChatGPT really outshine doctors? Or just on social media?». Healthcare IT News (HIMSS Media). Consultado el 5 de mayo de 2023. 
  100. «The doctor is out, but it's OK. ChatGPT can answer your questions». Hub (Johns Hopkins University). 28 de abril de 2023. 
  101. Ono, Mika (28 de abril de 2023). «Study Finds ChatGPT Outperforms Physicians in High-Quality, Empathetic Answers to Patient Questions». UC San Diego Today. Archivado desde el original el 28 de abril de 2023. Consultado el 28 de abril de 2023. 
  102. «ChatGPT Beats Doctors in Compassion and Quality of Advice to Patients». Neuroscience News. 28 de abril de 2023. Archivado desde el original el 3 de mayo de 2023. Consultado el 2 de mayo de 2023. 
  103. Howard, Alex; Hope, William; Gerada, Alessandro (April 2023). «ChatGPT and antimicrobial advice: the end of the consulting infection doctor?». The Lancet Infectious Diseases 23 (4): 405-406. ISSN 1473-3099. PMID 36822213. doi:10.1016/s1473-3099(23)00113-5. Archivado desde el original el 25 de marzo de 2023. Consultado el 2 de mayo de 2023. 
  104. «Is There a Role for ChatGPT in Healthcare?». Physician's Weekly. 27 de abril de 2023. Consultado el 5 de mayo de 2023. 
  105. Drake, Kimberly (6 de abril de 2023). «Rely on a Doctor, Not ChatGPT, for Medical Advice». HealthNews. Consultado el 5 de mayo de 2023. 
  106. Hughes, Stephen (27 de abril de 2023). «How good is ChatGPT at diagnosing disease? A doctor puts it through its paces». The Conversation. Consultado el 5 de mayo de 2023. 
  107. Cooban, Anna (5 de mayo de 2023). «ChatGPT can pick stocks better than your fund manager». CNN. Consultado el 5 de mayo de 2023. 
  108. «Pakistani judge uses ChatGPT to make court decision». Gulf News. 13 de abril de 2023. Archivado desde el original el 20 de abril de 2023. Consultado el 20 de abril de 2023. 
  109. «AI revolution is here': Pakistani court takes help from ChatGPT to grant bail in rape case». Pakistan Observer. 11 de abril de 2023. Archivado desde el original el 20 de abril de 2023. Consultado el 20 de abril de 2023. 
  110. Bushard, Brian (10 de enero de 2023). «Fake Scientific Abstracts Written By ChatGPT Fooled Scientists, Study Finds». Forbes (en inglés). Archivado desde el original el 3 de febrero de 2023. Consultado el 7 de mayo de 2023. 
  111. Stokel-Walker, Chris (18 de enero de 2023). «ChatGPT listed as author on research papers: many scientists disapprove». Nature (en inglés) 613 (7945): 620-621. Bibcode:2023Natur.613..620S. PMID 36653617. doi:10.1038/d41586-023-00107-z. Archivado desde el original el 30 de enero de 2023. Consultado el 7 de mayo de 2023. 
  112. Brainard, Jeffrey (22 de febrero de 2023). «As scientists explore AI-written text, journals hammer out policies». Science (en inglés). doi:10.1126/science.adh2937. Archivado desde el original el 24 de febrero de 2023. Consultado el 7 de mayo de 2023. 
  113. Ansede, Manuel (2 de abril de 2023). «One of the world's most cited scientists, Rafael Luque, suspended without pay for 13 years». EL PAÍS English. Archivado desde el original el 11 de abril de 2023. Consultado el 7 de mayo de 2023. 
  114. Kelly, Samantha Murphy (26 de enero de 2023). «ChatGPT passes exams from law and business schools | CNN Business». CNN. Archivado desde el original el 2 de febrero de 2023. Consultado el 3 de febrero de 2023. 
  115. «ChatGPT for Programming Numerical Methods». Cornell University (en inglés). 27 de abril de 2023. Consultado el 7 de mayo de 2023. 
  116. Roivainen, Eka (28 de marzo de 2023). «I Gave ChatGPT an IQ Test. Here's What I Discovered». Scientific American. Archivado desde el original el 3 de abril de 2023. Consultado el 7 de mayo de 2023. 
  117. «Mathematician Terence Tao Comments on ChatGPT». 10 de abril de 2023. Archivado desde el original el 11 de abril de 2023. Consultado el 7 de mayo de 2023. 
  118. Day, Terence (12 de abril de 2023). «A Preliminary Investigation of Fake Peer-Reviewed Citations and References Generated by ChatGPT». The Professional Geographer (en inglés): 1-4. ISSN 0033-0124. doi:10.1080/00330124.2023.2190373. Consultado el 6 de mayo de 2023. 
  119. «ChatGPT-Macher warnt vor Wahlmanipulation durch KI» [El creador de ChatGPT advierte sobre la manipulación electoral por parte de AI]. Der Spiegel (en alemán). 16 de mayo de 2023. Consultado el 17 de mayo de 2023. 
  120. Brian Fung (18 de mayo de 2023). «Mr. ChatGPT goes to Washington: OpenAI CEO Sam Altman testifies before Congress on AI risks» [El Sr. ChatGPT va a Washington: el CEO de OpenAI, Sam Altman, testifica ante el Congreso sobre los riesgos de la IA]. CNN (en inglés). Consultado el 17 de mayo de 2023. 
  121. a b Future of Life Institute (ed.). «Pause Giant AI Experiments: An Open Letter» (en inglés). Consultado el 7 de mayo de 2023. 
  122. a b Future of Life Institute (ed.). «Pause Giant AI Experiments: An Open Letter». Consultado el 7 de mayo de 2023. 
  123. „Außer Kontrolle“. Tech-Elite fordert Entwicklungspause bei Künstlicher Intelligenz. En: Der Tagesspiegel (Maria Fiedler) 30 de marzo de 2023, p. 1.
  124. Offener Brief. Wie gefährlich ist Künstlicher Intelligenz? In: Der Tagesspiegel (Birgit Herden und Oliver Voß) 31 de marzo de 2023, p. 13.
  125. Vincent, James (21 de marzo de 2023). «Google opens early access to its ChatGPT rival Bard – here are our first impressions». The Verge. Archivado desde el original el 21 de marzo de 2023. Consultado el 21 de marzo de 2023. 
  126. Ray, Tiernan (23 de enero de 2023). «ChatGPT is 'not particularly innovative,' and 'nothing revolutionary', says Meta's chief AI scientist». ZDNET (en inglés). Archivado desde el original el 17 de febrero de 2023. Consultado el 16 de febrero de 2023. 
  127. «Introducing LLaMA: A foundational, 65-billion-parameter language model». ai.facebook.com (en inglés). Archivado desde el original el 3 de marzo de 2023. Consultado el 3 de marzo de 2023. 
  128. «Character.AI: A ChatGPT alternative that lets you talk to Elon Musk, Tony Stark in real time – TFN». 24 de enero de 2023. Archivado desde el original el 10 de marzo de 2023. Consultado el 10 de marzo de 2023. 
  129. Huang, Raffaele (17 de marzo de 2023). «Baidu's ChatGPT Rival Launches to Mixed Reviews». WSJ. Archivado desde el original el 20 de marzo de 2023. Consultado el 19 de marzo de 2023. 
  130. Chen, Caiwei (7 de marzo de 2023). «China's ChatGPT Black Market Is Thriving». Wired UK. Archivado desde el original el 19 de marzo de 2023. Consultado el 19 de marzo de 2023. 
  131. He-rim, Jo (3 de febrero de 2023). «Naver to introduce search GPT in first half of year». The Korea Herald. Archivado desde el original el 12 de febrero de 2023. Consultado el 12 de febrero de 2023. 
  132. «Yandex plans to develop alternative to ChatGPT neural network». Tass. 1 de febrero de 2023. Archivado desde el original el 12 de febrero de 2023. Consultado el 12 de febrero de 2023. 
  133. Goldman, Sharon (25 de abril de 2023). «Hugging Face launches open-source version of ChatGPT in bid to challenge dominance of closed-source models». venturebeat.com. Archivado desde el original el 27 de abril de 2023. Consultado el 29 de abril de 2023. 
  134. Mauricio B. Holguín (26 de abril de 2023). «Hugging Face introduces HuggingChat: A new open-source alternative to ChatGPT» [Hugging Face presenta HuggingChat: una nueva alternativa de código abierto a ChatGPT]. Consultado el 7 de mayo de 2023. 
  135. Ertugrul Portakal (18 de diciembre de 2023). «Gemini De Google Vs GPT-4: Comparación Completa De Rendimiento». 

Enlaces externos