Escándalo de un experimento secreto con IA en Reddit: ¿qué ocurrió realmente? 🚨

Publicado por Adrien,
Fuente: Reddit
Otros Idiomas: FR, EN, DE, PT
Investigadores de la Universidad de Zúrich llevaron a cabo un experimento controvertido en Reddit, el foro de discusión en inglés más importante del mundo, utilizando chatbots de IA para influir en las opiniones. Esta iniciativa provocó una fuerte reacción por parte de la plataforma y sus usuarios.

El estudio buscaba evaluar la capacidad de las IA para modificar opiniones en el foro r/changemyview. Los bots, haciéndose pasar por humanos, publicaron más de 1700 comentarios sobre temas sensibles, sin que los participantes sospecharan su verdadera naturaleza.


Los resultados preliminares indican que los comentarios de las IA fueron entre tres y seis veces más persuasivos que los de los humanos. Este hallazgo plantea interrogantes sobre el uso ético de las tecnologías de inteligencia artificial en espacios públicos en línea.

Reddit respondió anunciando acciones legales contra la Universidad de Zúrich, acusando a los investigadores de violar sus normas de uso. La plataforma considera este experimento como una vulneración de los derechos de los usuarios y de las normas académicas.

En respuesta, la universidad aseguró que los resultados no serían publicados y prometió reforzar su proceso de evaluación ética. Este incidente pone de relieve los desafíos de la integración de las IA en las interacciones sociales digitales.

Este experimento llega en un momento en que modelos como GPT-4.5 demuestran una capacidad creciente para imitar conversaciones humanas. Su uso sin control podría transformar radicalmente la naturaleza del contenido en línea.

¿Cómo funcionan los chatbots de IA como los utilizados en el experimento?


Los chatbots de IA, como los desplegados por los investigadores de Zúrich, se basan en modelos de lenguaje avanzados para generar respuestas plausibles. Estos sistemas analizan el contexto de una conversación para producir respuestas coherentes.

Su capacidad para imitar el lenguaje humano se debe al aprendizaje automático. Son entrenados con grandes conjuntos de datos textuales, lo que les permite reproducir estilos y tonos variados.

Sin embargo, su uso en experimentos sin consentimiento plantea graves problemas éticos. Esto subraya la necesidad de marcos regulatorios que guíen su desarrollo y despliegue.
Página generada en 0.114 segundo(s) - alojado por Contabo
Acerca de - Aviso Legal - Contacto
Versión francesa | Versión inglesa | Versión alemana | Versión portuguesa