Para frenar la extorsión, la Comisión Reguladora de Telecomunicaciones pide registrar líneas móviles antes del 30 de junio; líneas sin registro serán deshabilitadas.
La Onexpo reconoció la importancia de mantener una interlocución y diálogo directo, oportuno e informado entre empresas del sector, autoridades y reguladores
En el primer bimestre, las remesas sumaron 9 mil 062 millones de dólares, una caída anual de 0.5% en comparación con lo registrado en 2025 durante el mismo periodo
Especialistas financieros del sector privado advierten que el crimen, la corrupción y la falta de estado de derecho afectan el clima de negocios y frenan la inversión en el país
Con una recopilación rigurosa de datos de una amplia gama de fuentes, los desarrolladores de IA podrían mejorar / pexels / olly
Las herramientas deIA generativa como ChatGPT y los asistentes digitales como Siri de Apple y Alexa de Amazon ayudan a las personas a obtener indicaciones para llegar a un lugar, hacer listas de compras y mucho más. Aunque muchas veces aún no comprenden bien a todos los humanos por igual.
Los investigadores en lingüística e informática han demostrado que estos sistemas suelen cometer más errores con las personas que tienen un acento no nativo o regional, con los afroamericanos, con quienes tienen algún acento indígena, e incluso con algunas mujeres, personas mayores, personas muy jóvenes y con aquellas que tienen algún impedimento del habla.
Los sistemas de reconocimiento automático de voz no son lo que los investigadores llaman “oyentes empáticos”. En lugar de tratar de comprenderlo captando otras pistas útiles como la entonación o los gestos faciales, simplemente se dan por vencidos. O hacen una suposición probabilística, una medida que a veces puede resultar en un error.
A medida que las empresas y los organismos adoptan cada vez más herramientas de reconocimiento automático de voz para reducir costos, las personas no tienen más opción que interactuar con ellas. Pero cuanto más se utilicen estos sistemas en campos críticos, desde los servicios de emergencia y la atención sanitaria hasta la educación y la aplicación de la ley, más probable será que haya graves consecuencias si no reconocen lo que dice la gente.
Imagine que en un futuro ha resultado herido en un accidente de coche. Llama al 911 para pedir ayuda, pero en lugar de que le conecten con un operador humano, le atiende un robot diseñado para eliminar las llamadas que no son de emergencia. Le lleva varias rondas hacerse entender, lo que supone una pérdida de tiempo y un aumento de su nivel de ansiedad en el peor momento.
Algunas de las desigualdades que resultan de estos sistemas están incorporadas en las grandes cantidades de datos lingüísticos que utilizan los desarrolladores para crear grandes modelos lingüísticos
¿Qué provoca este tipo de error? Algunas de las desigualdades que resultan de estos sistemas están incorporadas en las grandes cantidades de datos lingüísticos que utilizan los desarrolladores para crear grandes modelos lingüísticos. Los desarrolladores entrenan a los sistemas de inteligencia artificial para que comprendan e imiten el lenguaje humano, alimentándolos con grandes cantidades de archivos de texto y audio que contienen habla humana real. Pero, ¿de quién es el habla?
Si un sistema obtiene altos índices de precisión al hablar con estadounidenses blancos adinerados de unos 30 años, es razonable suponer que se entrenó utilizando muchas grabaciones de audio de personas que encajaban en ese perfil.
Con una recopilación rigurosa de datos de una amplia gama de fuentes, los desarrolladores de IA podrían reducir estos errores. Pero construir sistemas de IA que puedan comprender las infinitas variaciones del habla humana que surgen de factores como el género, la edad, la raza, la primera o segunda lengua, el nivel socioeconómico, la capacidad y muchos otros, requiere recursos y tiempo significativos.
Para quienes no hablan inglés –es decir, la mayoría de las personas del mundo– los desafíos son aún mayores, porque la mayoría de los sistemas de IA generativa más grandes se crearon en inglés y funcionan mucho mejor en inglés que en cualquier otro idioma.
En teoría, la IA tiene un gran potencial cívico para la traducción y el aumento del acceso de las personas a la información en diferentes idiomas, pero por ahora, la mayoría de los idiomas tienen una huella digital más pequeña, lo que les dificulta impulsar grandes modelos lingüísticos.
Para quienes no hablan inglés –es decir, la mayoría de las personas del mundo– los desafíos son aún mayores, porque la mayoría de los sistemas de IA generativa más grandes se crearon en inglés y funcionan mucho mejor en inglés que en cualquier otro idioma
Incluso en los idiomas que cuentan con un buen servicio de grandes modelos lingüísticos, como el inglés y el español, su experiencia varía según el dialecto del idioma que hable.
Hoy, la mayoría de los sistemas de reconocimiento de voz y los chatbots de IA generativa reflejan los sesgos lingüísticos de los conjuntos de datos con los que están entrenados. Se hacen eco de nociones prescriptivas, a veces prejuiciosas, de “corrección” en el habla.
De hecho, se ha demostrado que la IA “aplana” la diversidad lingüística. En la actualidad, existen empresas emergentes de inteligencia artificial que ofrecen borrar los acentos de sus usuarios, partiendo de la base de que su principal clientela serían los proveedores de servicios de atención al cliente con centros de llamadas en países extranjeros como la India o Filipinas. La oferta perpetúa la idea de que algunos acentos son menos válidos que otros.
Es de suponer que la IA mejorará en el procesamiento del lenguaje, teniendo en cuenta variables como los acentos, el cambio de código y similares. En los EE. UU., los servicios públicos están obligados por la ley federal a garantizar un acceso equitativo a los servicios independientemente del idioma que hable una persona. Pero no está claro si eso por sí solo será un incentivo suficiente para que la industria tecnológica avance hacia la eliminación de las desigualdades lingüísticas.