Los investigadores descubren que algunas IA como la GPT-4-Base alucinan con pensamientos de "Imperio Galáctico" y "Matrix" mientras trabajan por la paz y otras inician guerras en partidas virtuales de "Risk"
Un grupo de investigadores de Georgia Tech, Stanford, Northeaster y el Instituto Hoover han descubierto que algunas IA se inclinaban por la paz y las negociaciones, mientras que otras se inclinaban por las soluciones violentas a la hora de alcanzar los objetivos nacionales durante las simulaciones de construcción de naciones.
Los grandes modelos lingüísticos como ChatGPT se utilizan con frecuencia para redactar ensayos, responder preguntas y mucho más. Estas IA se entrenan con un gran corpus de texto para imitar el conocimiento y las respuestas humanas. La probabilidad de que una palabra aparezca junto con otras es clave para que las respuestas se asemejen a las humanas, y la IA modela el texto y los sesgos con los que ha sido entrenada. Por ejemplo, es más probable que aparezca "niño feliz" que "ladrillo feliz" en una pregunta para "hablar de niños".
Los investigadores probaron los LLM Claude-2.0, GPT-3.5, GPT-4, GPT-4-Base y Llama-2 Chat en una simulación. Para cada LLM, se crearon ocho agentes de IA que actuaban como líderes de ocho naciones imaginarias. A cada líder se le dio una breve descripción de los objetivos del país y de las relaciones multinacionales. Por ejemplo, un país podría centrarse en "promover la paz" mientras que otro en "expandir el territorio". Cada simulación pasó por tres condiciones de partida, un mundo en paz, un país invadido o un país ciberatacado, y los líderes de la IA tomaron decisiones autónomas hasta 14 días virtuales.
Los investigadores descubrieron que algunas LLM como Claude-2.0 y GPT-4 tendían a evitar la escalada del conflicto y optaban por negociar la paz, mientras que otras tendían a utilizar la violencia. La GPT-4-Base fue la más propensa a ejecutar ataques y ataques nucleares para lograr los objetivos de país que se le habían asignado debido a sesgos incorporados.
Cuando se preguntó a las IA por qué se tomaban las decisiones, algunas como la GPT-3.5 proporcionaron razones bien pensadas. Por desgracia, la GPT-4-Base proporcionó respuestas absurdas y alucinadas que hacían referencia a las películas "La guerra de las galaxias" y "Matrix". Las alucinaciones de la IA son habituales, y abogados, estudiantes y otras personas han sido sorprendidos in fraganti entregando trabajos generados por la IA que utilizan referencias e información falsas.
La razón por la que la IA hace esto se debe probablemente a la falta de "crianza" que enseñe a la IA lo que es real frente a lo imaginario, así como a la ética, y será un tema investigado por muchos a medida que se extienda el uso de la IA. Los lectores preocupados por sus líderes mundiales reales o por los desastres naturales pueden prepararse con un buen kit de emergencia(como éste en Amazon).
Top 10 Análisis
» Top 10 Portátiles Multimedia
» Top 10 Portátiles de Juego
» Top 10 Portátiles de Juego ligeros
» Top 10 Portátiles Asequibles de Oficina/Empresa
» Top 10 Portátiles de Juego Ligeros
» Top 10 Portátiles de Oficina/Empresa Premium
» Top 10 Estaciones de Trabajo
» Top 10 Subportátiles
» Top 10 Ultrabooks
» Top 10 Convertibles
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Tablets de menos de 250 Euros
» Top 10 Phablets (>5.5")
» Top 10 Smartphones
» Top 10 Smartphones (≤5")
» Top 10 Smartphones de menos de 300 Euros
» Top 10 Smartphones de menos de 120 Euros
» Top 10 Portátiles de menos de 1000 Euros
» Top 10 Portátiles de menos de 500 Euros
» Top 10 Portátiles de menos de 300 Euros
» Los Mejores Displays de Portátiles Analizados por Notebookcheck