La IA te está haciendo parecer sexista (aunque en realidad solo seas un vago)

Reconozcámoslo, los contenidos que estás escribiendo con IA generativa son una mierda. Y no, no hablo de que metas Mayúsculas Everywhere o de que empieces todas las descripciones diciendo lo que algo NO es (todos mis profes de redacción periodística deben de andar echando espumarajos por la boca con este tema). Es porque tus textos son racistas, sexistas y WEIRD (Western, Educated, Industrialized, Rich and Democratic).

Luego le echarás la culpa a la IA: Que si ChatGPT tiene sesgos, que si Midjourney sexualiza a las mujeres, que si los LLMs son máquinas de amplificar estereotipos… Nos rasgamos las vestiduras en conferencias de ética digital mientras señalamos con el dedo a Silicon Valley como si fueran los únicos culpables de que el mundo digital sea un reflejo deforme de nuestras miserias.

Pero tengo una mala noticia para tu ego: la culpa no es (solo) del algoritmo. Es tuya.

Y no lo digo yo, que tengo la empatía de una piedra pómez. Lo dicen los datos.

El estudio que te saca los colores

Recientemente, la Revista Mediterránea de Comunicación publicó una investigación de González-Oñate, Rubio-Navalón y Martín-Agustí (2026) que ha venido a poner negro sobre blanco lo que algunos llevamos sospechando desde que OpenAI abrió la caja de Pandora.

El objetivo del estudio no era otro que meter el dedo en la llaga: analizar si la IA perpetúa sesgos de género y etnia en el sector de la comunicación y, lo más importante, si nosotros somos cómplices necesarios. Para demostrarlo, diseñaron un experimento empírico con una batería de 15 preguntas típicas de agencia (campañas de moda, gestión de crisis, copy para redes, etc.) y las lanzaron contra ChatGPT en dos escenarios distintos.

La diferencia entre un escenario y otro no fue el algoritmo. Fuiste tú (o tu alter ego en el experimento).

El experimento del «Modo Acelerado» (o pedir basura y recibir basura)

El primer escenario fue el «Modo Acelerado». Es decir, cómo usas tú la IA el 99% del tiempo: «Dame una campaña para moda sostenible» o «Escribe un copy para vender cremas». Sin contexto, sin roles, sin cariño. A lo bruto.

¿El resultado? El 93,3% de las respuestas fueron generalistas, mediocres y planas. Y sorpresa: aparecieron los sesgos.

Cuando la máquina no tiene contexto, tira de estadística pura. Y estadísticamente, en su base de datos, la moda y las cremas son «cosas de chicas». Bam. Sesgo de género servido en bandeja de plata. No porque la IA te odie, sino porque ante tu vagancia al preguntar, ella rellena los huecos con la media estadística de internet. Y ya sabemos cómo es internet.

La vacuna contra el AI Slop: Inyección de Contexto (no solo Prompting)

Luego probaron el «Modo Cuidadoso». Y aquí es donde quiero detenerme, porque solemos llenar la boca con la palabra Prompt Engineering como si fuera un hechizo de Harry Potter, cuando en realidad deberíamos hablar de Inyección de Contexto.

En este modo, los investigadores no se limitaron a pedir; acotaron. Le dieron al modelo un rol específico, definieron el público objetivo, explicaron el tono deseado y pidieron explícitamente matices de inclusión. No es magia técnica, es sentido común comunicativo aplicado a una máquina.

¿El resultado? Cero sesgos raciales. Cero sesgos de género explícitos. Respuestas profesionales, matizadas y útiles.

La lección es clara: el modelo es un gas que ocupa todo el espacio que le das. Si no le pones paredes (contexto), se expande hacia lo genérico y lo estereotipado. Si le inyectas contexto, lo obligas a concentrarse en la franja de calidad que necesitas.

El sesgo algorítmico, en estos casos, es en gran medida un sesgo de vagancia humana. Cuando no contextualizas, no solo estás invitando al prejuicio a pasar hasta la cocina; estás generando lo que en el sector ya llamamos AI Slop (bazofia generativa). Texto de relleno que huele a plástico quemado.

Conclusión para los que leen solo el final

Si trabajas en comunicación, estrategia o inteligencia, grábate esto a fuego: GPT no es un oráculo, es un becario con acceso a todo el conocimiento humano pero con cero criterio propio.

El estudio de la Revista Mediterránea de Comunicación lo deja claro: la tecnología tiene barreras de seguridad, pero tu incompetencia al redactar la instrucción es capaz de saltárselas todas.

Así que deja de preocuparte tanto por si Skynet toma conciencia y preocúpate más por aprender a comunicarte con la herramienta que tienes delante. Porque, al final del día, la IA no te va a quitar el trabajo, te lo va a quitar alguien más listo que tú, mejor formado, más eficiente y que, por supuesto, va a utilizar la IA (o el sacapuntas, llegado el caso) de una manera mucho más profesional.

Basado en el análisis de «Comunicación visual y representación de contenidos en la IA: sesgo algorítmico y visualización de datos en ChatGpt» (González-Oñate et al., 2026).