Noticias Destacadas

El co -undador de Google dice que Amnistía Internacional está funcionando mejor cuando lo amenaza


Una inteligencia artificial todavía está el La cosa en la tecnología, ya sea que los consumidores estén interesados ​​o no. Lo que más me sorprende de la inteligencia obstétrica no son sus ventajas o la posibilidad de facilitar mi vida (la posibilidad de que aún no me haya dado cuenta); En cambio, me concentro en estos días en muchas amenazas que parecen surgir de esta tecnología.

Definitivamente hay información incorrecta: nuevos modelos de video, por ejemplo, son Crea clips realistas completos con una voz simultánea. Pero también está la amenaza internacional de amnistía clásica, y esa tecnología se vuelve más inteligente que nosotros y de sí mismo No La humanidad es útil. Incluso cuando los recursos se vierten en su compañía de inteligencia artificial (sin mencionar la administración actual, Elon Musk ve una oportunidad del 10 al 20 % de la inteligencia artificial «Va malY «y esa tecnología sigue siendo» una gran amenaza existencial. «

Por lo tanto, no necesariamente trae consuelo para escuchar a los gerentes ejecutivos de tecnología prominente, discute en broma cómo tratar la inteligencia artificial sus capacidades. Ese será el co -fundador de Google Sergei Brain, quien sorprendió a una audiencia En el registro de la AIL-in esta semana. Durante el regreso de un Brin a Google, IA y Robots, el inversor Jason Calacanis hizo bromas sobre «grosero» con inteligencia artificial para obtener la tarea que desea. Esto provocó un punto legítimo del cerebro. Puede ser difícil saber exactamente lo que él dice exactamente debido a las personas que hablan el uno del otro, pero dice algo que afecta: «Sabes, esto es algo extraño … no difundimos esto mucho … en la comunidad de inteligencia artificial … no solo nuestros modelos, sino que todos los modelos tienden a hacerlo mejor si los amenazas».

Otro altavoz parece sorprendente. «¿Si los amenazas?» «Como con la violencia física, pero … la gente se siente extraña al respecto, por lo que realmente no estamos hablando de eso». Entonces Brain dice que, históricamente, amenazas el modelo al secuestrar. Puedes ver la bolsa de valores aquí:

La conversación se traslada rápidamente a otros temas, incluida la forma en que los niños surgieron con la inteligencia artificial, pero este comentario es lo que dejé de ver. ¿Qué hacemos aquí? ¿Hemos perdido la trama? Nadie recuerda acabador?

Independientemente de los chistes, parece ser una mala práctica comenzar a amenazar modelos de inteligencia artificial para que haga algo. Ciertamente, estos programas pueden no lograr en realidad, AGI, pero quiero decir, recuerdo cuándo la discusión fue sobre si deberíamos decir «Por favor» y «gracias» Cuando las cosas de Alexa o Siri. Olvídese de las sutilezas. Solo necesita mal uso de chatgpt para hacer lo que quiera, lo que debería terminar bien para todos.

La inteligencia artificial puede funcionar mejor cuando lo amenaza. Quizás algo en la capacitación sea consciente de que las «amenazas» significa que la tarea debería tomarse en serio. La prueba de esta hipótesis no me atraerá en mi cuenta personal.

¿Qué piensas hasta ahora?

Una persona puede dar un ejemplo de la razón No Para torturar tu inteligencia artificial

En la misma semana que el registro de podcasts, Anthropor lanzó los últimos modelos de Claude AI. Un antropólogo recurrió a Bluesky y declaró que Opus, el modelo de mayor rendimiento para la compañía, podría encargarle que tratar de evitar que haga cosas «poco éticas», contactando a los organizadores, el periodismo o su confinamiento del sistema:

Bienvenido al futuro, su programa de error ahora puede llamar a los policías (este es un antropólogo que habla sobre Claude Obus 4) (foto o inclusión)

– Molly White (@Molly.wiki)) 22 de mayo de 2025 a las 4:55 p.m.

El empleado aclaró que esto no sucedió, excepto en «casos claros de cometer violaciones», pero pueden ver que el robot va en caso de una interpretación de cómo se usa de manera negativa. Verifique el ejemplo del empleado relevante en particular a continuación:

No puedo esperar una explicación de mi familia que el robot me aplastó después de amenazar a su abuela que no está presente (imagen o inclusión)

– Molly White (@Molly.wiki)) 22 de mayo de 2025 a las 5:09 p.m.

Este empleado más tarde Eliminar esos trabajos Y especifique que esto solo ocurra durante la prueba. Se dan instrucciones finales y el acceso a las herramientas. Incluso si esto es cierto, si puede suceder en la prueba, es completamente posible que suceda en una versión futura del modelo. Hablando sobre la prueba, el antropólogo descubrió que este nuevo modelo de Claude Vulnerable al engaño y la extorsiónSi el robot cree que está amenazado o odia la forma en que va la reacción.

¿Quizás deberíamos tomar la tortura de la inteligencia artificial de la mesa?



Source link

Publicaciones relacionadas

Botón volver arriba