ChatGPT, el nuevo confidente de la humanidad
Casi la mitad de los usuarios piden al chatbot ayuda para tomar decisiones de todo tipo y 11% le expresa sus sentimientos, evidenciando que están igual de dispuestos a compartir información personal con una IA que con un humano
Juan Luis Ramos / El Sol de México
El documento subraya que esta búsqueda de orientación práctica es uno de los usos predominantes. Las conversaciones en esta categoría abarcan desde decisiones cotidianas hasta cuestiones de mayor relevancia personal o profesional.
La plataforma funciona, en estos casos, como un interlocutor disponible de forma inmediata, capaz de ofrecer respuestas estructuradas y de acompañar el proceso con explicaciones adicionales cuando el usuario lo requiere.
Con esta información, el análisis Computers in Human Behavior: Artificial Humans encontró que las personas se muestran igual de dispuestas a compartir información personal con una IA que con un humano.
Según el análisis, los usuarios hablan con los chatbots como si fueran un espacio íntimo y seguro. Les confían inquietudes emocionales, psicológicas, laborales y médicas. La gran pregunta es qué pasaría si esas conversaciones quedaran expuestas.
Esa combinación de datos, aparentemente fragmentada, puede adquirir un valor significativo en manos equivocadas, advirtió ESET.
En dichos casos, la herramienta se convierte en apoyo productivo, pero también en repositorio potencial de información confidencial.
Algunos usuarios conciben a los chatbots como si fueran especialistas o consejeros, y comparten síntomas, diagnósticos, tratamientos o conflictos personales
A ello se suman extensiones o aplicaciones complementarias que amplían las funciones del chatbot. Si alguna de estas herramientas es vulnerable o maliciosa, la conversación puede salir del control del proveedor principal.
Riesgos de infiltración
En casos extremos, la información privada puede utilizarse con fines de extorsión. Un ciberatacante que conoce detalles íntimos puede ejercer presión mediante amenazas creíbles y chantajes personalizados.
Algunas ofrecen configuraciones para limitar el uso de conversaciones con fines de entrenamiento, pero esta opción no suprime totalmente la posibilidad de exposición.
Una pregunta simple puede servir de filtro al consultar a una IA: ¿esto lo diría en voz alta en una sala con desconocidos?
Una pregunta simple puede servir de filtro: ¿esto lo diría en voz alta en una sala con desconocidos? Si la respuesta es no, probablemente tampoco deba escribirse en un chatbot.
Cada consulta suma contexto. Y ese contexto es el activo más valioso para un ciberatacante. Una filtración no expone únicamente datos aislados, sino rutinas, decisiones, emociones y vulnerabilidades.
Lector, melómano y viajero. Soy reportero de Finanzas y Negocios en El Sol de México, con una trayectoria de 17 años en medios.






























