Ecuador
LLYC lanza The Purple Check, una inteligencia artificial para hablar e informar mejor sobre violencia de género
Redacción GYE
LLYC pone en marcha The Purple Check, una inteligencia artificial que ayuda a hablar e informar mejor sobre violencia de género.
La herramienta funciona de manera sencilla. Introducimos un titular y la solución comprueba si las palabras que hemos utilizado están en línea con las reglas de buenas prácticas derivadas de las guías United Nations Development Programme (UNDP) y Mediterranean Network of Regulatory Authorities (MNRA).
En caso contrario, nos recomendará cómo decir lo mismo para informar sin promover la desigualdad y así devolver el foco a la comunicación. The Purple Check es una herramienta de libre acceso porque la lucha contra la violencia de género es un asunto de todos en la defensa de los derechos humanos.
Aquí tienes un ejemplo de la alternativa que da The Purple Check a un titular que ha aparecido en un medio de comunicación:
Luisa García, Socia y COO Global de LLYC: “The Purple Check refleja nuestro compromiso con la igualdad. Es una contribución que hacemos desde la innovación y nuestra herramienta propia de IA para generar conciencia social. Necesitamos un tratamiento de la información más objetivo, equilibrado y justo.
La solución nos permite enfocar las noticias con perspectiva de género. Sólo si todos detectamos el sesgo podemos conseguir que el lenguaje sea una herramienta más de cambio.”
The Purple Check surge a raíz de las conclusiones del informe ‘Desenfocadas: Cómo opinar e informar mejor sobre la violencia de género’ que ha realizado LLYC en el marco del 8M, Día Internacional de la Mujer.
El estudio concluye que aunque los medios de comunicación conciencian, sensibilizan y previenen sobre violencia de género el doble que las redes sociales, queda mucho trabajo por delante. Todavía el 20% de las noticias publicadas justifican las agresiones y una de cada seis vulnera la intimidad de las víctimas exponiendo datos personales que estas preferirían evitar. Además, en general, sabemos mucho de ellas y poco del agresor. Hay un 75% más de menciones a los atributos de las víctimas.
El negacionismo se retroalimenta: una insinuación en medios se multiplica por cuatro en la conversación social.
Para la elaboración de este informe el equipo de Deep Learning de LLYC ha analizado 226,2 millones de artículos de noticias generales, 5,4 millones de noticias sobre violencia de género y 14 millones de mensajes en la red social X relacionados con la violencia de género en 12 países en los que la consultora está presente (Argentina, Brasil, Chile, Colombia, Ecuador, España, Estados Unidos, México, Panamá, Perú, Portugal y República Dominicana).
En la investigación se han empleado Large Language Models (LLMs- GPT4) para identificar y aislar descriptores dirigidos a víctima y agresor, en noticias públicas obtenidas mediante modelos de scrapers, así como técnicas de Procesamiento de Lenguaje Natural (NLP) en 4 idiomas para analizar el cumplimiento de 21 reglas de buenas prácticas derivadas de las guías UNDP y MNRA.
“Quienes participamos en la conversación social sabemos que dar visibilidad a la violencia de género es fundamental para avanzar en su erradicación. Sin embargo, hacerlo mal puede ser contraproducente, generando sensacionalismo y provocando una doble victimización. Desde LLYC queremos, no solo evidenciar este riesgo sino aportar herramientas para evitarlo”, afirma Luisa García.