Noticias Destacadas

Facebook ve el aumento del contenido violento y acosador después de los cambios de política

Meta publicó su primer trimestre Informes de integridad Desde que Mark Zuckerberg retiró las políticas de discurso de odio de la compañía y cambió su enfoque de contenido moderado a principios de este año. Según los informes, Facebook fue testigo de un aumento en el contenido violento, el acoso escolar y el acoso a pesar de la disminución total de la cantidad de contenido que bajó por Meta.

Los informes son la primera vez que Meta ha compartido datos sobre cómo la decisión de Zuckerberg de recaudar meta políticas en la plataforma utilizada por miles de millones de personas. Vale la pena señalar que la compañía se está llevando a cabo como una victoria, diciendo que redujo sus errores a la mitad, mientras que la tasa del contenido total que rompe sus reglas «no ha cambiado en la mayoría de las áreas de problemas».

Hay dos tipos prominentes de excepciones. El contenido violento y gráfico aumentó de 0.06 % -0.07 % al final de 2024 a. Meta también vio un aumento notable en la propagación del acoso escolar y el acoso en Facebook, que aumentó de 0.06-0.07 % al final de 2024 a 0.07-08 % al comienzo de 2025. Meta dice que esto se debe a «espiga» que no se especifica en marzo. (Vale la pena señalar que esta es una categoría separada de las políticas de discurso de odio de la compañía, que Volver a escribir Para permitir que los trabajos sean dirigidos Inmigrantes Y la gente de LGBTQ)

Estos pequeños porcentajes pueden parecer relativamente, pero incluso pequeños aumentos pueden ser notables para una plataforma como Facebook que ve miles de millones de publicaciones todos los días. (Meta describe su escala de propagación como una estimación del contenido de contenido en su sistema básico).

El informe también enfatiza el alcance del número de meta en el contenido en general, dado que se ha alejado de la aplicación proactiva de todas sus políticas peligrosas, como la explotación de los niños y el contenido del terrorista. El informe meta muestra una disminución significativa en la cantidad de publicaciones de Facebook que se han eliminado para el contenido aborrecible, por ejemplo, con 3.4 millones de contenidos «hechas» en política, que es el número más bajo de la compañía desde 2018. Los mensajes no deseados también disminuyeron de 730 millones de personas al final de Facebook que no excede 1.4. Sobre operaciones de eliminación de cuentas falsas en Instagram).

Al mismo tiempo, Meta afirma que comete errores con moderación en el contenido, que fue uno de Zuckerberg’s Las principales justificaciones Decidir terminar la moderación proactiva. Anuncio Su política cambia. Meta no explicó cómo calculó este número, pero dijo que los informes futuros incluirían estándares en nuestros errores para que las personas puedan rastrear nuestro progreso. «

Sin embargo, Meta admite que hay al menos un grupo donde todavía es necesaria alguna moderación proactiva: adolescentes. La compañía escribió: «Al mismo tiempo, todavía estamos comprometidos a garantizar que los adolescentes en nuestras plataformas tengan una experiencia más segura», escribió la compañía. «Por esta razón, para los jóvenes, también continuaremos ocultando otros tipos de contenido dañino de manera proactiva, como el acoso escolar». Meta ha sido publicado.Cuentas adolescentes«Durante los últimos meses, lo que debe facilitar el contenido del contenido específicamente para los usuarios más jóvenes.

La compañía también ofreció una actualización sobre cómo usar modelos de idiomas grandes para ayudar a sus esfuerzos para bautizar el contenido. «Al hacer más pruebas, comenzamos a ver LLM que funcionan más allá del rendimiento humano de los campos de políticas elegidos», escribe Meta. «También usamos LLM para eliminar el contenido de las listas de espera en ciertas circunstancias cuando estamos muy seguros de que no viola nuestras políticas».

Otro componente principal de los cambios de política de Zuckerberg fue el final de las asociaciones metastales que definen los hechos en los Estados Unidos. La compañía comenzó a ofrecerlo Versión especial Desde notas sociales hasta Facebook, Instagram y Threads a principios de este año, y desde entonces los esfuerzos se hicieron para declinar y responder a los temas. Meta no ha hecho ninguna idea de la efectividad de su nuevo enfoque para verificar los hechos o la cantidad de veces en que aparecen notas en su plataforma, aunque prometió actualizaciones en los próximos meses.

Source link

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba