Independientemente de si está a través del diseño o la sumisión tranquila a un panorama digital de desarrollo rápido, las compañías de redes sociales más grandes del mundo han hecho posible que sus plataformas se conviertan en fábricas de la división, deshumanización y violencia cada vez más real.
Lo que comenzó como herramientas para la conexión se han convertido en un motor de ira. No es coincidencia. Es un negocio.
En el centro de esta transformación se encuentra el algoritmo de compromiso: un mecanismo aparentemente neutral que cura lo que miles de millones de personas ven, comparten y creen.
Los algoritmos no son neutrales. Se construyen con un solo propósito: para mantenernos en la plataforma, hacer clic, comentar y desplazarse. En la carrera por la atención, un desencadenante emocional excede a los demás: la ira.
La indignación se extiende más rápido que los hechos. Las contribuciones que corresponden a inflamar generan más compromiso que las que informan. El algoritmo no importa si una publicación está dividida o dañina, solo que no puede mirar hacia otro lado. El resultado es una economía de atención en la que el contenido más rentable es a menudo el más venenoso.
Este no es un problema teórico. Vemos las consecuencias todos los días, ya que las molestias en línea y los discursos de odio en la metástasis de ataques fuera de línea.
Una medida que ahora está esperando la firma del gobernador Gavin Newsom Proyecto de ley del Senado 771es un paso importante en la dirección de una arena digital civil más segura y civil. El proyecto de ley daría a los californianos la oportunidad de doblar las compañías de redes sociales más grandes en cuenta si sus algoritmos según California contribuyen materialmente a las violaciones de los derechos civiles.
Las compañías de redes sociales pueden protestar que nunca planean radicalizar a los usuarios o beneficiarse de la polarización. Eso puede ser cierto. Sin embargo, las intenciones no son la medida de responsabilidad. Y su negativa a prevenir activamente estos resultados es cómplice.
Tenga en cuenta algunos ejemplos: la investigación interna de Facebook confirmó que era usted El algoritmo promueve el contenido dividido Porque los clics de indignación y en Myanmar celebran su negligencia en la moderación de la incitación contra la minoría rohingya Mitad para alimentar una campaña de limpieza étnica. X, anteriormente conocido como Twitter, admitió que Los discursos de Hass se levantaron Después de los cambios en la moderación del contenido. En Los Ángeles y Nueva York ,, Los hashtags antisemíticos tienden en línea Ataques anteriores contra instituciones judías.
Los puntos ya no son difíciles de conectar. En línea -Mefuled Fuels Daño fuera de línea.
Si SB 771 se firmara, no establecería ningún código de idioma. No castigaría la libre expresión. Esto aseguraría que las plataformas tengan consecuencias si sus prácticas comerciales aumentan por el acoso, las amenazas o la discriminación, que ya son ilegales según la ley estatal.
Esta es una intervención estrecha pero esencial. Así como las leyes de responsabilidad del producto para fabricantes de automóviles para bolsas de aire defectuosas y compañías farmacéuticas son responsables de los medicamentos inciertos, también tenemos que culpar a las compañías de redes sociales por daños predecibles causados por defectos incorporados en sus modelos comerciales centrales.
California llevó a la nación a establecer pautas para las industrias que dan forma a nuestras vidas, desde la seguridad de los productos de consumo hasta la protección del medio ambiente. Este cálculo seguiría esta tradición.
Las operaciones son altas. En el condado de Los Ángeles, Los delitos antisemita se elevaron 91%el año pasado, mientras que los crímenes de odio apuntan a LGBTQ+ y comunidades de inmigrantes. Los maestros informan que se distribuyen y que la intimidación se extiende a la velocidad de una tendencia en las aulas. Y los padres encuentran a sus hijos radicalizados a través del contenido extremista que presiona los algoritmos en su feed.
No se trata de política. La protección contra el odio debe exceder la ideología. Se trata de si los californianos han recurrido cuando el odio se vuelve demasiado dañino. Maestros, padres, líderes religiosos: California en todos los antecedentes están involucrados en esta lucha.
Imagine registrarse mañana en habitaciones digitales en las que el odio es recompensado por el diseño y no con el alcance, donde los algoritmos son algoritmos con dignidad humana en lugar de ira inhumana.
Con SB 771, California puede establecer este precedente. Newsom puede enviar un mensaje claro: la seguridad y los derechos civiles de los californianos tienen prioridad sobre el resultado final de Silicon Valley.
Jim Berk es CEO del Centro Simon Wiesenthal.