Notebookcheck Logo

Ingenioso: ChatGPT crea un estudio falso sobre una afirmación falsa

¿Qué es lo primero: la desinformación o las pruebas falsas? (Fuente de la imagen: pixabay/Pexels)
¿Qué es lo primero: la desinformación o las pruebas falsas? (Fuente de la imagen: pixabay/Pexels)
La IA puede alucinar y utilizar afirmaciones falsas para fundamentar sus argumentos. Una nueva cualidad son los estudios aparentemente científicos que demuestran de forma concluyente el resultado deseado a primera vista. Como si los humanos no fueran ya bastante buenos en esto por sí mismos.

Con la ayuda de estudios, siempre que estén bien preparados, se realicen concienzudamente y se evalúen, se pueden investigar los efectos de las técnicas quirúrgicas o de la medicación utilizada, sobre todo en medicina.

Según un artículo publicado en JAMA Ophthalmology, este engorroso proceso puede acortarse. Gracias a GPT-4, la versión utilizada actualmente por ChatGPT, y a un software adicional para el análisis estadístico de datos, sólo se necesitaron unos pocos clics para crear un conjunto de datos.

Y no cualquier conjunto de datos. La información que se iba a generar pretendía demostrar las ventajas de una técnica de tratamiento concreta frente a un método alternativo, y eso es exactamente lo que acabó haciendo. Por cierto, los datos que existen realmente sobre el procedimiento en cuestión no proporcionan ninguna ventaja para ningún bando en particular.

Por lo tanto, sería posible obtener el resultado deseado con un clic de ratón y sin demasiado esfuerzo, en lugar de pasar meses o años investigando y acabar obteniendo el resultado "equivocado". Parece una estafa muy convincente en la que la IA aporta pruebas concluyentes además de desinformación.

Al fin y al cabo, los investigadores también tienen cosas positivas de las que informar: Los datos no resistieron un examen minucioso. Por ejemplo, los nombres de pila y el sexo indicados a menudo no coincidían. Además, algunos datos no resistieron el análisis estadístico. Por ejemplo, demasiadas informaciones sobre la edad terminaban en "7" u "8". Sin embargo, se dice que los resultados reales de las pruebas fueron coherentes.

No es nuevo, sólo más rápido

Así que parece que hay formas y formas de llegar al fondo de tales métodos. Y, por supuesto, también está claro que los estudios siempre se han estructurado, evaluado y embellecido de forma incorrecta para conseguir un resultado deseado.

La inteligencia artificial sólo ha acelerado esto un poco. En última instancia, sin embargo, no es más que una herramienta que puede utilizarse para abordar tareas muy, muy complejas.

Un ejemplo: examinar enormes conjuntos de datos de todos los estudios posibles en busca de incoherencias y anomalías estadísticas.

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2023 11 > Ingenioso: ChatGPT crea un estudio falso sobre una afirmación falsa
Mario Petzold, 2023-11-23 (Update: 2023-11-23)