NacionalesUltimas Noticias

Antropomorfización del usuario: los nuevos modelos de ChatGPT y sus comportamientos extraños

La semana pasada, OpenAI presentó dos nuevos modelos: ChatGPT o3 y o4-mini. Con la intriga de ver qué nuevas actualizaciones podrían traer estos modelos, los usuarios empezaron a darles vida a través de sus prompts. Además de registrar las nuevas capacidades que ofrecen ambos sistemas, se hicieron virales sus fallas. O, más bien, ciertos aspectos raros que se materializaron en los dos productos ofrecidos por la gran empresa tech.

En líneas generales, ChatGPT o3 y o4-mini están centrados en el razonamiento. Los modelos están diseñados para programar, navegar por la web, generar imágenes de manera autónoma e incluso pensar con imágenes. Son dos sistemas que buscan combinar todas las habilidades de la inteligencia artificial desarrollada por OpenAI en un solo lugar. Sam Altman, en la red social X, los presentó como los modelos más potentes que tiene la compañía hasta el día de hoy. “Intelectualmente sabía que esto iba a suceder, pero me resulta diferente verlo”, escribió el director ejecutivo sobre el lanzamiento.

Sin embargo, una de las cosas extrañas (y preocupantes para algunos) es el hecho de que estos modelos incluyen el nombre del usuario, sin que se les pida, en su proceso de razonamiento. Es importante aclarar que, al insertar un prompt, estos dos sistemas despliegan todos los pasos de su proceso de razonamiento en el chat: qué analizan, dónde están buscando, qué errores encuentran, entre otros pasos que los llevan a la respuesta final. Entonces, cuando una persona da una indicación a la inteligencia artificial, esta comienza con el nombre. Por ejemplo: “Victoria pidió que calcule…”.

Simon Willison, un emprendedor y entusiasta de la tecnología con varios seguidores, compartió este fenómeno en X junto con un comentario que denotó su disconformismo con esta nueva función. “¿A alguien le gusta eso de que o3 use tu nombre en su cadena de pensamientos, en lugar de encontrarlo espeluznante e innecesario?”, manifestó. Muchas personas se sumaron al hilo y comentaron que no les parecía una buena actualización y que, de hecho, la odiaban. “La primera vez que lo vi, actualicé las instrucciones en mi chat para que dejara de hacerlo”, escribió un usuario.

Otro ejemplo fue brindado por Debasish Pattanayak, un especialista en tecnología, quien compartió una foto de cómo ChatGPT materializaba esta tendencia. “Es raro ver tu propio nombre en el proceso de pensamiento del modelo”, escribió. “¿Hay alguna razón por la cual agregaron eso?”, preguntó en las redes, etiquetando a OpenAI. La empresa no respondió, pero hay una explicación para esta tendencia.

Según expresó a LA NACION Santiago Vespoli, experto en tecnología y cofundador de Erebant —consultora especializada en inteligencia artificial—, recientemente OpenAI mejoró la memoria de ChatGPT para que pueda recordar todo el historial de chats y referirse a conversaciones o conocimientos pasados. “También es parte de un esfuerzo por hacer que la inteligencia artificial sea más cercana con el usuario. Usar tu nombre es un intento de generar un espacio de intimidad”, detalló.

Este intento de cercanía puso en primera plana la antropomorfización tecnológica, un concepto que se usa para deescribir la tendencia de atribuirle caracteristícas humanas a las máquinas. Sobre esto, Sergio Pernice, director de Ingeniería en Inteligencia Artificial, dijo a LA NACION que hasta 2022 la conversación era una actividad exclusivamente humana. “El lenguaje, la comunicación sofisticada, es uno de los rasgos que nos distingue”, planteó. “Cuando una tecnología empieza a hacer cosas que solo hacían los humanos, como conversar, es casi inevitable la antropomorfización”, confirmó.

Sin embargo, contrario a Pernice, Christian Ferrer, sociólogo y profesor de la cátedra de Cultura, Técnica y Sociedad en la Facultad de Ciencias Sociales (UBA), manifestó a LA NACION que no cree que ChatGPT pueda antropomorfizarse. “Sospecho que es al revés: o los seres humanos empezamos a modelar nuestro lenguaje para encajar con la máquina, o estas comodidades nos volverán seres sin mucha necesidad de contacto con otros y con terror a cualquier roce con otra piel”, reflexionó.

Pero los modelos ChatGPT o3 y o4-mini también fueron tendencia por aspectos que nada tienen que ver con sus nuevas funciones de procesamiento multimodal. El usuario de X Daniel Growing, que siempre comparte reflexiones polémicas y tiene una gran comunidad de seguidores, instaló el rumor de que ChatGPT está ahora obsesionado con la inmaculada concepción de María. “Hay todo un equipo dentro de OpenAI tratando frenéticamente de averiguar por qué y un enorme esfuerzo de despliegue para evitar que se hable de ella. Nadie entiende por qué y cada vez es más intenso”, escribió.

Aunque sea solamente una especulación basada en lo que dijo un usuario en X, la acusación tomó más carácter cuando un diseñador de modelos en OpenAI, Aidan McLaughlin, respondió en el hilo “es verdad” y luego lo borró. Daniel lo expuso y aseguró que desde la gigante tecnológica están “asustados de que esto salga a la luz antes de que ellos mismos entiendan las consecuencias”. A lo que Aidan respondió: “No puedo decir cosas lindas”, haciendo alusión a que bloquearon o eliminaron desde una fuerza mayor lo que había dicho.

Sobre esto, Vespoli dijo que no hay ninguna confirmación oficial, además de que los ejemplos que circulan en X no parecen ser serios. “Dicho esto, son cosas que pueden pasar tranquilamente. Al usar modelos de deep learning, y dado el tipo de arquitectura que tienen, nadie entiende del todo cómo funcionan ni qué habilidades tienen realmente”, detalló Vespoli. “Son una especie de caja negra. Por eso, es posible que exhiban comportamientos inusuales que ni siquiera los investigadores de OpenAI puedan anticipar o controlar del todo”, agregó.

En esta línea, Augusto Alegre, un especialista en inteligencia artificial, confirmó a LA NACION que al usar los nuevos modelos no vio que estos estuvieran redactando respuestas evangelizadas. Sin embargo, al intentar buscar una explicación para este posible fenómeno, aseguró: “Quizás lo indujeron al modelo con una serie de instrucciones previas que lo llevaron a hacer razonamientos erróneos. Y bueno, los modelos hoy alucinan… cada vez menos, pero alucinan. Cometen errores, cada vez menos, pero cometen errores”.

La semana pasada, OpenAI presentó dos nuevos modelos: ChatGPT o3 y o4-mini. Con la intriga de ver qué nuevas actualizaciones podrían traer estos modelos, los usuarios empezaron a darles vida a través de sus prompts. Además de registrar las nuevas capacidades que ofrecen ambos sistemas, se hicieron virales sus fallas. O, más bien, ciertos aspectos raros que se materializaron en los dos productos ofrecidos por la gran empresa tech.

En líneas generales, ChatGPT o3 y o4-mini están centrados en el razonamiento. Los modelos están diseñados para programar, navegar por la web, generar imágenes de manera autónoma e incluso pensar con imágenes. Son dos sistemas que buscan combinar todas las habilidades de la inteligencia artificial desarrollada por OpenAI en un solo lugar. Sam Altman, en la red social X, los presentó como los modelos más potentes que tiene la compañía hasta el día de hoy. “Intelectualmente sabía que esto iba a suceder, pero me resulta diferente verlo”, escribió el director ejecutivo sobre el lanzamiento.

Sin embargo, una de las cosas extrañas (y preocupantes para algunos) es el hecho de que estos modelos incluyen el nombre del usuario, sin que se les pida, en su proceso de razonamiento. Es importante aclarar que, al insertar un prompt, estos dos sistemas despliegan todos los pasos de su proceso de razonamiento en el chat: qué analizan, dónde están buscando, qué errores encuentran, entre otros pasos que los llevan a la respuesta final. Entonces, cuando una persona da una indicación a la inteligencia artificial, esta comienza con el nombre. Por ejemplo: “Victoria pidió que calcule…”.

Simon Willison, un emprendedor y entusiasta de la tecnología con varios seguidores, compartió este fenómeno en X junto con un comentario que denotó su disconformismo con esta nueva función. “¿A alguien le gusta eso de que o3 use tu nombre en su cadena de pensamientos, en lugar de encontrarlo espeluznante e innecesario?”, manifestó. Muchas personas se sumaron al hilo y comentaron que no les parecía una buena actualización y que, de hecho, la odiaban. “La primera vez que lo vi, actualicé las instrucciones en mi chat para que dejara de hacerlo”, escribió un usuario.

Otro ejemplo fue brindado por Debasish Pattanayak, un especialista en tecnología, quien compartió una foto de cómo ChatGPT materializaba esta tendencia. “Es raro ver tu propio nombre en el proceso de pensamiento del modelo”, escribió. “¿Hay alguna razón por la cual agregaron eso?”, preguntó en las redes, etiquetando a OpenAI. La empresa no respondió, pero hay una explicación para esta tendencia.

Según expresó a LA NACION Santiago Vespoli, experto en tecnología y cofundador de Erebant —consultora especializada en inteligencia artificial—, recientemente OpenAI mejoró la memoria de ChatGPT para que pueda recordar todo el historial de chats y referirse a conversaciones o conocimientos pasados. “También es parte de un esfuerzo por hacer que la inteligencia artificial sea más cercana con el usuario. Usar tu nombre es un intento de generar un espacio de intimidad”, detalló.

Este intento de cercanía puso en primera plana la antropomorfización tecnológica, un concepto que se usa para deescribir la tendencia de atribuirle caracteristícas humanas a las máquinas. Sobre esto, Sergio Pernice, director de Ingeniería en Inteligencia Artificial, dijo a LA NACION que hasta 2022 la conversación era una actividad exclusivamente humana. “El lenguaje, la comunicación sofisticada, es uno de los rasgos que nos distingue”, planteó. “Cuando una tecnología empieza a hacer cosas que solo hacían los humanos, como conversar, es casi inevitable la antropomorfización”, confirmó.

Sin embargo, contrario a Pernice, Christian Ferrer, sociólogo y profesor de la cátedra de Cultura, Técnica y Sociedad en la Facultad de Ciencias Sociales (UBA), manifestó a LA NACION que no cree que ChatGPT pueda antropomorfizarse. “Sospecho que es al revés: o los seres humanos empezamos a modelar nuestro lenguaje para encajar con la máquina, o estas comodidades nos volverán seres sin mucha necesidad de contacto con otros y con terror a cualquier roce con otra piel”, reflexionó.

Pero los modelos ChatGPT o3 y o4-mini también fueron tendencia por aspectos que nada tienen que ver con sus nuevas funciones de procesamiento multimodal. El usuario de X Daniel Growing, que siempre comparte reflexiones polémicas y tiene una gran comunidad de seguidores, instaló el rumor de que ChatGPT está ahora obsesionado con la inmaculada concepción de María. “Hay todo un equipo dentro de OpenAI tratando frenéticamente de averiguar por qué y un enorme esfuerzo de despliegue para evitar que se hable de ella. Nadie entiende por qué y cada vez es más intenso”, escribió.

Aunque sea solamente una especulación basada en lo que dijo un usuario en X, la acusación tomó más carácter cuando un diseñador de modelos en OpenAI, Aidan McLaughlin, respondió en el hilo “es verdad” y luego lo borró. Daniel lo expuso y aseguró que desde la gigante tecnológica están “asustados de que esto salga a la luz antes de que ellos mismos entiendan las consecuencias”. A lo que Aidan respondió: “No puedo decir cosas lindas”, haciendo alusión a que bloquearon o eliminaron desde una fuerza mayor lo que había dicho.

Sobre esto, Vespoli dijo que no hay ninguna confirmación oficial, además de que los ejemplos que circulan en X no parecen ser serios. “Dicho esto, son cosas que pueden pasar tranquilamente. Al usar modelos de deep learning, y dado el tipo de arquitectura que tienen, nadie entiende del todo cómo funcionan ni qué habilidades tienen realmente”, detalló Vespoli. “Son una especie de caja negra. Por eso, es posible que exhiban comportamientos inusuales que ni siquiera los investigadores de OpenAI puedan anticipar o controlar del todo”, agregó.

En esta línea, Augusto Alegre, un especialista en inteligencia artificial, confirmó a LA NACION que al usar los nuevos modelos no vio que estos estuvieran redactando respuestas evangelizadas. Sin embargo, al intentar buscar una explicación para este posible fenómeno, aseguró: “Quizás lo indujeron al modelo con una serie de instrucciones previas que lo llevaron a hacer razonamientos erróneos. Y bueno, los modelos hoy alucinan… cada vez menos, pero alucinan. Cometen errores, cada vez menos, pero cometen errores”.

 Toman la infromación personal del usuario, como el nombre, para incluirla en su cadena de procesamiento y generar una sensación de “cercanía”  LA NACION

Mostrar más

Publicaciones relacionadas

Botón volver arriba
Cerrar