Notebookcheck Logo

OpenAI expresa su preocupación por que los usuarios desarrollen sentimientos hacia su chatbot

Las primeras pruebas de OpenAI muestran algunos resultados preocupantes (Fuente de la imagen: OpenAI)
Las primeras pruebas de OpenAI muestran algunos resultados preocupantes (Fuente de la imagen: OpenAI)
El recientemente presentado GPT-4o para ChatGPT ha sido elogiado por sus interacciones similares a las humanas. Sin embargo, esto ha hecho que OpenAI se preocupe de que los usuarios formen conexiones emocionales con él. La empresa afirma que ahora supervisará y ajustará el chatbot para evitar que la gente desarrolle sentimientos hacia él.

GPT-4o se introdujo como un modelo ampliamente mejorado de ChatGPT. Desde su debut, la gente ha elogiado a ChatGPT-4o por sus interacciones similares a las humanas. Aunque esto suena muy bien, OpenAI ha observado un problema: la gente está empezando a tratar al chatbot como a un ser humano y a formar vínculos emocionales.

OpenAI ha observado personas utilizando un lenguaje que "podría indicar la formación de vínculos" La empresa señala que ha encontrado casos en los que la gente utilizaba un lenguaje que expresaba "vínculos compartidos" Esto se describe como una mala noticia por dos razones principales.

En primer lugar, cuando ChatGPT-4o parece humano, los usuarios pueden hacer caso omiso de las alucinaciones procedentes del chatbot. Para contextualizar, Las alucinaciones de la IA son básicamente las salidas incorrectas o engañosas generadas por el modelo. Esto puede ocurrir debido a datos de entrenamiento defectuosos o insuficientes.

En segundo lugar, las interacciones de tipo humano con el chatbot podrían reducir las interacciones sociales reales entre los usuarios. OpenAI afirma que las interacciones del chatbot podrían ser potencialmente beneficiosas para "individuos solitarios", pero también podrían afectar a las relaciones sanas. La empresa señala además que la gente puede incluso empezar a hablar con humanos con la percepción de que la otra persona es un chatbot.

Eso sería malo, ya que OpenAI ha diseñado GPT-4o para que deje de hablar cuando el usuario empiece a hablar por encima de él. Con todas estas preocupaciones, la empresa afirma que ahora supervisará cómo los usuarios desarrollan vínculos emocionales con ChatGPT-4o. OpenAI también afirma que realizará ajustes en el modelo cuando sea necesario.

Consiga la grabadora de voz con IA PLAUD Note en Amazon

Fuente(s)

Please share our article, every link counts!
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2024 08 > OpenAI expresa su preocupación por que los usuarios desarrollen sentimientos hacia su chatbot
Abid Ahsan Shanto, 2024-08-12 (Update: 2024-08-15)