El anuncio de Mark Zuckerberg cambiaría radicalmente las redes sociales

  • Fin de la verificación de hechos por parte de terceros y su reemplazo por notas de la comunidad como 𝕏
  • Eliminación de la reducción de contenido político
  • Levantar restricciones de temas genero
  • Trasladar equipos de moderación de contenidos a Texas para evitar censores políticos tóxicos de izquierda
  • Trabajamos con Trump para acabar con la censura a nivel mundial
  • Reflejando la voluntad de los votantes estadounidenses que quieren más libertad y menos censura.

Meta, propietaria de Facebook e Instagram, anunció el martes que eliminará su programa de verificación de datos por terceros y lo reemplazará con un programa de Notas Comunitarias escrito por los usuarios, similar al modelo utilizado por X, la red social de Elon Musk.

Iniciando en Estados Unidos, Meta dijo que decidió terminar el programa porque los verificadores tenían sus propios sesgos y terminaban revisando demasiado contenido.

En su lugar, adoptará un modelo de Notas Comunitarias que utiliza verificaciones generadas por los usuarios.

“Hemos visto que este enfoque funciona en X, donde empoderan a su comunidad para decidir cuándo las publicaciones son potencialmente engañosas y necesitan más contexto”, dijo Joel Kaplan, director de Asuntos Globales de Meta, en un blog.

La compañía de redes sociales también dijo que planea permitir “más discurso” al levantar algunas restricciones sobre algunos temas que forman parte de la discusión general para centrarse en contenidos ilegales y “violaciones muy graves” como el terrorismo, la explotación sexual infantil y las drogas.

Meta indicó que su enfoque de construir sistemas complejos para gestionar el contenido en sus plataformas ha “ido demasiado lejos” y ha cometido “demasiados errores” al censurar demasiado contenido.

El CEO, Mark Zuckerberg, reconoció que los cambios están motivados parcialmente por sucesos políticos, entre ellos, la victoria electoral de Donald Trump.

“Las recientes elecciones también son un punto de inflexión cultural que lleva a priorizar nuevamente el discurso”, señaló Zuckerberg en un video en línea.

La Junta de Supervisión cuasi independiente de Meta, establecida para actuar como árbitro en decisiones de contenido controvertido, dijo que acogía con beneplácito los cambios y esperaba trabajar con la compañía “para entender los cambios con mayor detalle, asegurando que su nuevo enfoque pueda ser tan efectivo y amigable con el discurso como sea posible”.

Post completo el FB Blog

Más discurso y menos errores
Conclusiones

  • Adoptaremos un enfoque más personalizado del contenido político, para que las personas que quieran ver más en sus feeds puedan hacerlo.
  • A partir de EE. UU., vamos a poner fin a nuestro programa de verificación de datos de terceros y a pasar a un modelo de Notas de la comunidad.
  • Permitiremos más libertad de expresión levantando las restricciones sobre algunos temas que forman parte del discurso dominante y centrando nuestra aplicación en las violaciones ilegales y de alta gravedad.

Las plataformas de Meta están diseñadas para ser lugares donde las personas puedan expresarse libremente. Eso puede ser complicado. En las plataformas donde miles de millones de personas pueden tener voz, todo lo bueno, lo malo y lo feo está a la vista. Pero eso es libertad de expresión.

En su discurso de 2019 en la Universidad de Georgetown, Mark Zuckerberg argumentó que la libertad de expresión ha sido la fuerza impulsora del progreso en la sociedad estadounidense y en todo el mundo y que inhibir la expresión, por muy bien intencionadas que sean las razones para hacerlo, a menudo refuerza las instituciones y estructuras de poder existentes en lugar de empoderar a las personas. Dijo: «Algunas personas creen que dar voz a más personas está impulsando la división en lugar de unirnos. Cada vez son más las personas de todo el espectro que creen que el logro de los resultados políticos que creen que importan más que el hecho de que cada persona tenga voz. Creo que eso es peligroso».

En los últimos años, hemos desarrollado sistemas cada vez más complejos para gestionar el contenido en nuestras plataformas, en parte en respuesta a la presión social y política para moderar el contenido. Este enfoque ha ido demasiado lejos. A pesar de lo bien intencionados que han sido muchos de estos esfuerzos, se han expandido con el tiempo hasta el punto en que estamos cometiendo demasiados errores, frustrando a nuestros usuarios y, con demasiada frecuencia, interponiéndose en el camino de la libertad de expresión que nos propusimos permitir. Demasiado contenido inofensivo es censurado, demasiadas personas se encuentran injustamente encerradas en la «cárcel de Facebook» y, a menudo, somos demasiado lentos para responder cuando lo hacen.

Queremos arreglar eso y volver a ese compromiso fundamental con la libertad de expresión. Hoy vamos a hacer algunos cambios para mantenernos fieles a ese ideal.

Fin del programa de verificación de datos de terceros y paso a las notas de la comunidad

Cuando lanzamos nuestro programa independiente de verificación de datos en 2016, teníamos muy claro que no queríamos ser los árbitros de la verdad. Tomamos lo que pensamos que era la mejor y más razonable decisión en ese momento, que era entregar esa responsabilidad a organizaciones independientes de verificación de hechos. La intención del programa era que estos expertos independientes le dieran a las personas más información sobre las cosas que ven en línea, particularmente los engaños virales, para que pudieran juzgar por sí mismos lo que veían y leían.

Esa no es la forma en que se desarrollaron las cosas, especialmente en los Estados Unidos. Los expertos, como todo el mundo, tienen sus propios sesgos y perspectivas. Esto se reflejó en las decisiones que algunos tomaron sobre qué verificar y cómo. Con el tiempo, terminamos con demasiado contenido verificado que la gente entendería como un discurso y debate político legítimo. A continuación, nuestro sistema adjuntó consecuencias reales en forma de etiquetas intrusivas y una distribución reducida. Un programa destinado a informar se convirtió con demasiada frecuencia en una herramienta para censurar.

Ahora estamos cambiando este enfoque. Terminaremos el actual programa de verificación de datos de terceros en los Estados Unidos y, en su lugar, comenzaremos a pasar a un programa de Notas de la Comunidad. Hemos visto que este enfoque funciona en X, donde empoderan a su comunidad para decidir cuándo las publicaciones son potencialmente engañosas y necesitan más contexto, y las personas en una amplia gama de perspectivas deciden qué tipo de contexto es útil que otros usuarios vean. Creemos que esta podría ser una mejor manera de lograr nuestra intención original de proporcionar a las personas información sobre lo que están viendo, y una que sea menos propensa a sesgos.

  • Una vez que el programa esté en funcionamiento, Meta no escribirá notas de la comunidad ni decidirá cuáles aparecen. Son escritos y calificados por los usuarios contribuyentes.
  • Al igual que lo hacen en X, las Notas de la comunidad requerirán un acuerdo entre personas con una variedad de perspectivas para ayudar a evitar calificaciones sesgadas.
  • Tenemos la intención de ser transparentes sobre cómo los diferentes puntos de vista informan las notas que se muestran en nuestras aplicaciones, y estamos trabajando en la forma correcta de compartir esta información.
  • Las personas pueden inscribirse hoy (FacebookInstagramThreads) para tener la oportunidad de estar entre los primeros contribuyentes a este programa a medida que esté disponible.

Planeamos introducir las notas de la comunidad en los EE. UU. primero en los próximos meses, y continuaremos mejorándolas a lo largo del año. A medida que hagamos la transición, nos desharemos de nuestro control de verificación de hechos, dejaremos de degradar el contenido verificado y, en lugar de superponer advertencias intersticiales a pantalla completa en las que tenga que hacer clic antes de poder ver la publicación, usaremos una etiqueta mucho menos intrusiva que indique que hay información adicional para aquellos que quieran verla.

Permitir más libertad de expresión

Con el tiempo, hemos desarrollado sistemas complejos para gestionar el contenido de nuestras plataformas, que cada vez nos resulta más complicado aplicar. Como resultado, hemos estado aplicando en exceso nuestras reglas, limitando el debate político legítimo y censurando demasiado contenido trivial y sometiendo a demasiadas personas a acciones de aplicación frustrantes.

Por ejemplo, en diciembre de 2024, eliminamos millones de piezas de contenido todos los días. Si bien estas acciones representan menos del 1% del contenido producido todos los días, creemos que una o dos de cada 10 de estas acciones pueden haber sido errores (es decir, es posible que el contenido no haya infringido nuestras políticas). Esto no tiene en cuenta las acciones que tomamos para hacer frente a los ataques de spam adversarios a gran escala. Planeamos ampliar nuestros informes de transparencia para compartir cifras sobre nuestros errores de forma regular para que las personas puedan seguir nuestro progreso. Como parte de eso, también incluiremos más detalles sobre los errores que cometemos al aplicar nuestras políticas de spam.

Queremos deshacer el avance de la misión que ha hecho que nuestras reglas sean demasiado restrictivas y demasiado propensas a la aplicación excesiva. Nos estamos deshaciendo de una serie de restricciones en temas como la inmigración, la identidad de género y el género que son objeto de frecuentes discursos y debates políticos. No es justo que se puedan decir cosas en la televisión o en el Congreso, pero no en nuestras plataformas. Estos cambios en la política pueden tardar unas semanas en implementarse por completo.

También vamos a cambiar la forma en que aplicamos nuestras políticas para reducir el tipo de errores que representan la gran mayoría de la censura en nuestras plataformas. Hasta ahora, hemos estado utilizando sistemas automatizados para buscar todas las infracciones de las políticas, pero esto ha dado lugar a demasiados errores y a la censura de demasiado contenido de lo que no debería haber sido. Por lo tanto, vamos a seguir enfocándonos en estos sistemas para abordar las violaciones ilegales y de alta gravedad, como el terrorismo, la explotación sexual infantil, las drogas, el fraude y las estafas. En el caso de las infracciones de políticas menos graves, vamos a confiar en que alguien informe de un problema antes de tomar cualquier medida. También degradamos demasiado contenido que nuestros sistemas predicen que podría infringir nuestros estándares. Estamos en el proceso de deshacernos de la mayoría de estos descensos y requerimos una mayor confianza que el contenido viola para el resto. Y vamos a ajustar nuestros sistemas para que requieran un grado mucho mayor de confianza antes de que se elimine un fragmento de contenido. Como parte de estos cambios, trasladaremos los equipos de confianza y seguridad que redactan nuestras políticas de contenido y revisan el contenido fuera de California a Texas y otras ubicaciones de EE. UU.

A menudo se da a las personas la oportunidad de apelar nuestras decisiones de aplicación y pedirnos que le echemos otro vistazo, pero el proceso puede ser frustrantemente lento y no siempre llega al resultado correcto. Hemos añadido personal adicional a este trabajo y, en más casos, ahora también necesitamos que varios revisores tomen una determinación para eliminar algo. Estamos trabajando en formas de hacer que la recuperación de cuentas sea más sencilla y probando la tecnología de reconocimiento facial, y hemos comenzado a usar modelos de lenguaje grandes (LLM) de IA para proporcionar una segunda opinión sobre algunos contenidos antes de tomar medidas de cumplimiento.

Un enfoque personalizado del contenido político

Desde 2021, hemos realizado cambios para reducir la cantidad de contenido cívico que ven las personas (publicaciones sobre elecciones, política o temas sociales) en función de los comentarios que nos dieron nuestros usuarios de que querían ver menos de este contenido. Pero este fue un enfoque bastante contundente. Vamos a empezar a trasladar esto gradualmente a Facebook, Instagram y Threads con un enfoque más personalizado para que las personas que quieran ver más contenido político en sus feeds puedan hacerlo.

Continuamente estamos probando cómo ofrecemos experiencias personalizadas y recientemente hemos realizado pruebas en torno al contenido cívico. Como resultado, vamos a empezar a tratar el contenido cívico de las personas y las páginas que sigues en Facebook más como cualquier otro contenido de tu feed, y empezaremos a clasificar y mostrarte ese contenido en función de señales explícitas (por ejemplo, indicar que te gusta un fragmento de contenido) e implícitas (como ver publicaciones) que nos ayudan a predecir lo que es significativo para las personas. También vamos a recomendar más contenido político basado en estas señales personalizadas y estamos ampliando las opciones que tienen las personas para controlar la cantidad de este contenido que ven.

Estos cambios son un intento de volver al compromiso con la libertad de expresión que Mark Zuckerberg estableció en su discurso de Georgetown. Eso significa estar atentos al impacto que nuestras políticas y sistemas están teniendo en la capacidad de las personas para hacer oír sus voces, y tener la humildad de cambiar nuestro enfoque cuando sabemos que estamos haciendo las cosas mal.

Deja una respuesta