En las redes sociales hay un lenguaje inclusivo del que casi nadie se queja y es el que aborda ciertos temas con eufemismos para evitar la censura. Los creadores de contenido apelan a este recurso para hablar de suicidio, aborto, abuso, desnudez, pornografía o asesinatos sin el temor de que sus videos sean eliminados por los moderadores de las plataformas.
A esta nueva forma de expresión se la denomina Algospeak, que significa “lenguaje algorítmico”. Esa forma de expresión velada hace que, por ejemplo, haya altas probabilidades de que este texto no pase los filtros de redes sociales porque muchas de las palabras utilizadas no se ajustan a sus políticas.
Qué es el Algospeak
El Algospeak es una forma de poder hablar de algo sin mencionarlo de forma directa. Así nos encontramos con palabras que no parecen tener sentido o están mal escritas pero en realidad son eufemismos o nuevos términos. La razón es simple: las reglas de las plataformas de redes sociales prohíben algunas palabras para evitar la difusión de temas delicados, propagación de violencia o de mensajes de odio.
“Nuestros algoritmos están diseñados con el objetivo de generar confianza y garantizar la seguridad. Nos reservamos el derecho de reducir la visibilidad de ciertos vídeos mediante, por ejemplo, la redirección de los resultados de búsqueda o su no inclusión en la sección Para ti”, aseguraron desde TikTok a través de un comunicado.
El Algospeak es simple: sustituye las palabras por otras que suenan parecido (seggsual por sexual), invierte el orden de las sílabas (nepe por pene), utiliza números para reemplazar vocales (v10l4c10n por violación), usar un emoji de una berenjena para referirse al miembro masculino o un durazno para hablar de traseros o simplemente apela a siglas (TA para Transtorno Alimenticio). Estos son solo algunos ejemplos pero no son las únicas formas de expresión.
Este tipo de lenguaje también abre una brecha generacional. La generación Z entiende rápidamente los códigos, mientras que los mayores de 40 años rara vez captan los términos. Por esta razón es más común que este tipo de vocablos aparezcan en redes como TikTok y no tanto en Facebook.
Esos raros lenguajes nuevos
Las redes sociales utilizan dos herramientas para controlar el lenguaje que circula en el contenido: moderadores humanos y algoritmos con IA. El problema es que ambos son falibles y se puede burlar su ojo vigilante con relativa facilidad.
Un ejemplo trivial pero llamativo se puede observar en el audio viral de un niño que ponía su voz en una imagen donde se veía un perrito y se escuchaba: “No te entiendo nada porque acá está el espíritu” y a continuación ponía voz grave para decir “Hola Juan Carlos, cómo estás chupapija”. Esta última palabra podría ser censurada pero la expresión 100% argentina no es detectada como algo dañino por algoritmos ni moderadores extranjeros. La duda es ¿son capaces de identificar que en este contexto la palabra no es peyorativa ni un insulto sino una forma divertida de expresión o directamente no entiende el significado?
Incluso viejos vocablos siguen vigentes y sirven para esquivar a los censores. Hablar de “Mary Jane”, como palabra sustituta de “Marihuana”, se sigue usando en muchos videos.
También surgen palabras con nuevos significados para relatos truculentos. “Desvivido” reemplaza a “asesinado” y “se desvivió” para hablar de alguien que se quitó la vida. Aunque el verbo “Desvivir” es reconocido por la Real Academia Española, su acepción original sirve para describir “el acto de hacer grandes esfuerzos o sacrificios por alguien o algo”, y eso no está ni cerca del significado que se le da en redes. En inglés pasa algo similar con la palabra “unlive”.
La censura de la palabra “suicidio” se justifica en no querer alentar desde las redes conductas dañiñas ni incentivar a las personas a autolesionarse, pero la prohibición del termino arrasa incluso hasta con información sobre prevención o de ayuda a la salud mental.
Por ejemplo, en este video de una profesional de la salud mental cuenta un caso con un paciente pero no escribe la palabra suicidio de forma directa sino que utiliza la combinación de letras y números para formar la palabra. En su descripción resumió: “Experiencias con pacientes su1c1d4s #saludemocional #psicologia #psicologa #cuidadomental #ansiedad #estres #prevenciondelsui #su1c1điio #terapia” y en el audio del video baja el volumen cuando menciona la palabra “suicidio”.
Un estudio reveló que en TikTok la etiqueta #unalivemeplease (“desvivanme por favor”) se ha usado 9,2 millones de veces, #unaliving (“desvivir”) 6,6 millones y #unaliveawareness (“concienciasobredesvivir”) 2,2 millones. Sin embargo #suicideprevention (“prevencióndelsuicidio”), #suicide (“suicidio”) y #suicideawareness (“concienciasobresuicidio”) no aparecen masivamente en búsquedas.
TikTok, que pertenece a la empresa china ByteDance, es la más estricta a la hora de restringir contenido pero también es donde más abunda el Algospeak. Otras plataformas como Instagram o Facebook son más sensibles a las imágenes, especialmente con los desnudos, y X -el ex Twitter- parece tierra de nadie desde la llegada de su nuevo dueño Elon Musk porque ya casi, para bien o para mal, parece no haber límites.
Un arma de doble filo
La censura de expresiones y palabras no solo ha forzado un nuevo vocabulario sino que representa un desafío de comunicación para aquellos que quieren difundir información útil. Los algoritmos no están entrenados para buscar sutilezas porque aún no pueden detectarlas como lo hacemos los humanos.
La experta en redes sociales Faithe J Day escribió un artículo para la revista Medium donde afirmaba que “es una ironía usar algoritmos para controlar el lenguaje de los usuarios, cuando los algoritmos no hablan como lo hacen los humanos”.
Hay muchos videos con la palabra “Corn” o el emoji de un choclo (que se dice “corn” en inglés) y no hay algoritmo que pueda entender su significado subyacente: la pornografía. Se usa “Corn” para no mencionar “Porn” con solo cambiar una letra.
Algunas etiquetas incluso esconden peligros para la salud, especialmente de mujeres jóvenes, y tampoco fueron detectadas. El hashtag #thinspo es una abreviatura de Thin Inspiration (Inspiración de delgadez) y fomenta la anorexia con peligrosas consecuencias. Por suerte, las denuncias de los usuarios alertaron sobre el contenido y TikTok no solo le dio de baja sino que también puse un enlace ofreciendo ayuda.
Otro caso polémico ocurrió cuando algunas plataformas censuraron videos sobre formas de autorevisión para prevenir cáncer de mama ya que los pechos femeninos están prohibidos. Muchas organizaciones optaron por usar hombres para mostrar el ejercicio y pudieron sortear la censura.
Colectivos feministas han hecho reclamos sobre la doble vara que manejan en redes como Facebook, Instagram o TikTok sobre el cuerpo de la mujer. Más de una vez han censurado a madres amamantando pero pocas veces dan de baja contenido de hombres que exhiben abiertamente sus genitales detrás de una toalla, pantalones o sábanas.
“Reconocemos que algunos contenidos que normalmente se eliminarían según nuestras normas podrían ser de interés público. Por lo tanto, es posible que hagamos excepciones en determinadas circunstancias, como en el caso de contenidos educativos, documentales, científicos, artísticos o satíricos, contenidos en entornos ficticios o profesionales, el contradiscurso y otros tipos de contenidos que manifiesten la expresión individual respecto a temas de importancia social”, respondieron desde TikTok ante los reclamos.
Censura vs. libertad de expresión
Otro gran problema de las redes sociales es que sus reglas de censura aplican para todos y los medios de comunicación resultan perjudicados por no poder abordar temáticas libremente sabiendo que el contenido será cuestionado por las plataformas.
“No tienen derecho a implantar un régimen de censura a la libertad de expresión. Vemos con preocupación el desarrollo de las redes sociales ya está afectado a la vida privada y al derecho a la intimidad y creemos que una autoridad independiente debería regularlas para lograr el delicado equilibrio de evitar que se restrinjan libertades de los individuos y se difundan noticias falsas”, sostuvo Juan Caño, presidente de la Asociación de la Prensa de Madrid (APM) en declaraciones al sitio El Economista.
La experta en redes Faithe J Day propone una solución al problema: “No solo hay que entrenar algoritmos para comprender mejor a los humanos, sino también capacitar a los humanos que supervisan los algoritmos para comprender mejor las diferentes culturas y el uso del lenguaje”.
Ejemplos del glosario ‘algospeak’
Seggs - sexo
Incels - célibes involuntarios
Cornucopia - homofobia.
S.A. - (sexual abuse) para el abuso sexual.
Unalive - o no vivo, muerte. Cometer un no vivo, es sucidarse.
POV - tendencia por la cual el usuario crea un vídeo desde el punto de vista de un determinado personaje, ya sea real o imaginado.
Heather - persona de gran belleza con la que todo el mundo quiere estar.
Shade - signfica sombra en inglés y en jerga se utiliza para hablar mal de alguien.
Simp - un estúpido.
Vibe check - expresión en inglés para decir que alguien pasó la prueba de “buena onda”.
BBL - cirugía brasileña para elevar el trasero.
GOAT - (greatest Of All Time) lo mejor de todos los tiempos.
IB - (inspired by) inspirado por.
Oomf - (one of my friends) uno de mis amigos. Extrapolable a seguidor.
Sheesh - expresa exasperación o incredulidad ante algo.
Pfp - foto de perfil.