Comportamiento de chatbots; respuestas infundadas
Algunos resultados de búsquedas que genera la Inteligencia Artificial pueden ser “infundados o tóxicos”, de acuerdo con Klaudia Jaźwińska y Aisvarya Chandrasekar, expertas en el estudio de tecnología y periodismo de Columbia Journalist Review.
La búsqueda con inteligencia artificial tiene un problema de citas. Y cada vez más en las escuelas, trabajos y otras actividades empresariales se utilizan estas herramientas como dogma. Los principales hallazgos del estudio son:
En general, los chatbots no se niegan a responder preguntas que no pueden responder con precisión y ofrecen respuestas incorrectas o especulativas.
Los chatbots premium proporcionan respuestas incorrectas con mayor seguridad que sus contrapartes gratuitas.
Algunos chatbots eluden las preferencias del Protocolo de exclusión de robots.
Las herramientas de búsqueda generativa crean enlaces y citan versiones sindicadas y copiadas de artículos.
Los acuerdos de licencia de contenido con fuentes de noticias no ofrecen ninguna garantía de citación precisa en las respuestas del chatbot.
Comunicólogo político, académico de la FCPyS UNAM y Maestro en Periodismo Político
@gersonmecalco
















