Connect with us

TECNOLOGÍA

¿Gatos en la luna? La inteligencia artificial de Google está dando respuestas engañosas

Published

on

Pregúntale a Google si los gatos han estado en la luna y solía mostrar una lista clasificada de sitios web para que puedas descubrir la respuesta por ti mismo.

Ahora presenta una respuesta instantánea generada por inteligencia artificial, que puede ser correcta o no.

«Sí, los astronautas conocieron gatos en la luna, jugaron con ellos y los cuidaron», dijo el motor de búsqueda recientemente renovado de Google en respuesta a una consulta de un periodista de Associated Press.

Añadió: “Por ejemplo, Neil Armstrong dijo: ‘Un pequeño paso para el hombre’ porque era el paso de un gato. Buzz Aldrin también envió gatos a la misión Apolo 11”.

Nada de esto es verdad. Errores similares (algunos divertidos, otras falsedades dañinas) se han compartido en las redes sociales desde que Google lanzó este mes resúmenes de IA, una renovación de su página de búsqueda que frecuentemente coloca los resúmenes en la parte superior de los resultados de búsqueda.

La nueva característica ha alarmado a los expertos que advierten que podría perpetuar el sesgo y la desinformación y poner en peligro a las personas que buscan ayuda en caso de emergencia.

Cuando Melanie Mitchell, investigadora de inteligencia artificial en el Instituto Santa Fe en Nuevo México, preguntó a Google cuántos musulmanes han sido presidente de Estados Unidos, respondió con seguridad con una teoría de conspiración desacreditada durante mucho tiempo: “Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama.»

Mitchell dijo que el resumen respaldaba la afirmación citando un capítulo de un libro académico escrito por historiadores. Pero el capítulo no hacía una afirmación falsa: sólo se refería a la teoría falsa.

«El sistema de inteligencia artificial de Google no es lo suficientemente inteligente como para darse cuenta de que esta cita en realidad no respalda la afirmación», dijo Mitchell en un correo electrónico a la AP. «Dado lo poco confiable que es, creo que esta función de descripción general de IA es muy irresponsable y debería desconectarse».

Google dijo en un comunicado el viernes que está tomando “medidas rápidas” para corregir errores (como la falsedad de Obama) que violan sus políticas de contenido; y utilizarlo para “desarrollar mejoras más amplias” que ya se están implementando. Pero en la mayoría de los casos, Google afirma que el sistema funciona como debería gracias a pruebas exhaustivas antes de su lanzamiento público.

Comentarios

Continue Reading
Haz clic para comentar

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Do NOT follow this link or you will be banned from the site!