Noticias Destacadas

Operai vuelve a más transparencia en alucinaciones típicas y contenido dañino

Opadai Lancé una nueva página web llamada Revisiones de seguridad del centro Intercambiar información relacionada públicamente con cosas como alucinaciones en sus modelos. El eje también surgirá si el modelo produce contenido dañino y cómo se comporta bien como se dedica e intentará romper las prisiones.

La compañía de tecnología afirma que esta nueva página proporcionará transparencia adicional en OpenAi, una empresa, para contexto, enfrentado, para contexto, Múltiples demandas Con el pretexto de que utiliza materiales ilegales de derechos de autor para capacitar a modelos de inteligencia artificial. Oh, sí, y debe tenerse en cuenta New York Times Reclamar una empresa de tecnología Evidencia emplástica por error En el caso del plagio en el periódico contra él.

El Centro de Evaluación de Seguridad tiene como objetivo expandir las tarjetas del sistema Operai. Solo definen medidas de seguridad en el desarrollo en el lanzamiento, mientras que el eje debe proporcionar actualizaciones continuas.

«Con el desarrollo de la ciencia de la evaluación de inteligencia artificial, nuestro objetivo es compartir nuestro progreso en el desarrollo de formas más de desarrollo para medir la seguridad típica y la seguridad», dice OpenAi en su anuncio. «Al compartir un subset de nuestros resultados de evaluación de seguridad aquí, esperamos que esto no solo sea fácil comprender el rendimiento de seguridad de OpenAI con el tiempo, sino también apoyar los esfuerzos de la sociedad, para aumentar la transparencia en todo el campo». Operai agrega que su trabajo para obtener una comunicación más proactiva en este campo en toda la empresa.

Para ver este contenido, deberá actualizar su configuración de privacidad. Haga clic aquí Mostrar «Contenido y socios de redes sociales» Prepárese para hacer esto.

Las partes interesadas pueden mirar cada una de las secciones del eje y ver información sobre modelos relevantes, como GPT-4.1 a 4.5. Openai señala que la información proporcionada en este eje es solo una «instantánea» y que las partes en cuestión deben mirar sus tarjetas de sistema. Otras revisiones y versiones de más detalles.

Uno de los adultos Bota Para todo el centro de evaluación de seguridad, OpenAi es la entidad que hace estas pruebas y elige la información que debe compartirse públicamente. Como resultado, no hay forma de garantizar que la compañía comparta todos sus problemas o temores con el público.



Source link

Publicaciones relacionadas

Botón volver arriba