Como mujer árabe nacida y criada en Israel, mi herencia mezcla raíces israelíes, palestinas, sirias, libanesas, iraquíes y beduinas, tirándome en muchas direcciones diferentes. A menudo siento que mi identidad está atrapada entre dos mundos y malentendida por ambos; atrapada en una bola de nieve, constantemente sacudida por la sociedad, con todas las piezas de quién soy dando vueltas en una tormenta.
Ya sea hablando hebreo, inglés o árabe, a menudo me preguntan de dónde soy "realmente". En hebreo, la pregunta es "¿De dónde hiciste aliyá?" En inglés, la gente pregunta si nací en Israel. Cuando hablo árabe, mi acento es llamado "demasiado grueso" para ser hablante nativo. Incluso mi nombre, Koral, parece fuera de lugar para aquellos que esperan algo "más árabe". Estas constantes suposiciones y preguntas reflejan la tendencia societal más amplia a simplificar en exceso identidades complejas basadas en concepciones preconcebidas. Sin embargo, esta lucha personal no es solo un problema societal, se agrava por las plataformas digitales en las que confiamos diariamente, que amplifican aún más los prejuicios y representaciones erróneas de la identidad.
En una era en la que la tecnología dicta gran parte de nuestras interacciones sociales, las plataformas digitales no solo distorsionan la verdadera complejidad de las identidades individuales, sino que también refuerzan e incluso amplifican los prejuicios sociales. En lugar de fomentar la comprensión, estos prejuicios proporcionan un reflejo distorsionado de quién soy y qué represento, simplificando en exceso las identidades para encajar en categorías estrechas y predefinidas, y reforzando estereotipos que moldean nuestras realidades fuera de línea.
Una realidad más controlada tomando el control
Una vez se veía Internet como un igualador, un espacio donde todos podían compartir su voz e identidad. Sin embargo, a medida que las compañías tecnológicas han ganado poder, la promesa de un mundo digital democratizado ha dado paso a una realidad más controlada.
Como Shoshana Zuboff explora en "La era del capitalismo de vigilancia", plataformas como Facebook y Google recopilan nuestros datos personales para predecir nuestros comportamientos, dando forma a lo que vemos, leemos e incluso pensamos. Estas plataformas filtran nuestras identidades a través de algoritmos diseñados para emparejarnos con contenido que se ajusta a categorías predefinidas, basadas en prejuicios incorporados en sus sistemas. Como resultado, las realidades matizadas de nuestras vidas se ven aplanadas, convirtiendo a individuos complejos en estereotipos simplificados.
Por ejemplo, cuando publico en árabe en redes sociales, los algoritmos a menudo categorizan mi contenido bajo etiquetas genéricas, priorizando contenido estereotípico sobre la cultura árabe y no logrando capturar las sutilezas de mi identidad.
Como señala Zuboff, las empresas tecnológicas obtienen beneficios extrayendo y analizando nuestros datos, creando un "excedente conductual" que les permite predecir e influir en nuestras acciones. Cuanto más saben de nosotros, más precisamente pueden dirigirnos con publicidad, reforzando los prejuicios que han ayudado a crear. El algoritmo de Facebook, por ejemplo, tiende a priorizar contenido que se alinea con las opiniones mayoritarias, reforzando así las cámaras de eco que perpetúan concepciones erróneas en lugar de fomentar la comprensión, aislando aún más a los usuarios en sus sistemas de creencias preexistentes. Las consecuencias de estos filtros digitales son profundas.
Como mujer palestino-israelí, a menudo me preguntan de dónde vengo, una pregunta que refleja el estereotipo de que hay una única respuesta "correcta". Los estudios muestran cómo las cámaras de eco impulsadas por algoritmos de Facebook dirigen a las personas hacia contenido homogéneo, limitando la exposición a perspectivas diversas.
El mundo digital, diseñado para conectarnos, a menudo nos desconecta al reducir la complejidad de nuestras experiencias a categorías convenientes y fáciles de entender. Esto crea un ciclo de mala representación digital en el que personas como yo se ven obligadas a explicar sus identidades repetidamente, no solo en la vida real, sino también en línea.
El artículo "Injusticia social en el capitalismo de vigilancia" de Jonathan Cinnamon de la Universidad de British Columbia - Okanagan añade profundidad a este argumento, discutiendo cómo el capitalismo de vigilancia facilita injusticias sistémicas a través de la mercantilización de datos sin una compensación justa y mala representación, lo que permite prácticas discriminatorias y marginalización.
Para personas como yo, esto significa ser categorizados de formas que borran la naturaleza multifacética de nuestras identidades, reforzando los prejuicios sociales y amplificando el desconocimiento. Nuestras identidades no son unidimensionales.
Si queremos un mundo digital que realmente refleje la diversidad y complejidad de la identidad humana, debemos exigir más de las plataformas que utilizamos. Esto significa presionar por una mayor transparencia en los algoritmos, abogar por una representación diversa en los espacios digitales y responsabilizar a las empresas tecnológicas por los prejuicios que perpetúan.
Volviendo a la metáfora del globo de nieve, debemos romper el vidrio que nos confina, permitiendo que los pedazos de nuestras identidades se asienten de forma natural y auténtica en un mundo libre de restricciones artificiales. Solo al liberarnos de estos filtros limitantes podemos crear un mundo en línea más inclusivo y auténtico, uno donde cada identidad, sin importar cuán compleja sea, sea verdaderamente vista y comprendida.
El escritor es un estudiante de comunicaciones árabe israelí y participante del programa de honores, especializado en influencias y percepciones digitales, en la Universidad Reichman.