Chatbot con IA de Microsoft brinda info y datos electorales engañosos

Un reciente estudio de dos organizaciones sin ánimo de lucro europeas reveló que el chatbot de IA Bing de Microsoft, ahora rebautizado como Copilot, da información engañosa o inexacta sobre datos electorales.

Un estudio de dos organizaciones sin ánimo de lucro con sede en Europa ha revelado que el chatbot de inteligencia artificial (IA) Bing de Microsoft, ahora rebautizado como Copilot, produce resultados engañosos sobre información electoral y cita erróneamente a sus fuentes.

El estudio, publicado por AI Forensics y AlgorithmWatch el 15 de diciembre, concluye que el chatbot de IA de Bing da respuestas erróneas el 30% de las veces a preguntas básicas sobre las elecciones políticas en Alemania y Suiza. Las respuestas inexactas se referían a información sobre candidatos, encuestas, escándalos y votaciones.

También dio respuestas inexactas a preguntas sobre las elecciones presidenciales de 2024 en Estados Unidos.

Read more

Ir a la Fuente
Author: Savannah Fortis

Envía un comentario