Noticias Destacadas

La gente está a la inversa buscando fotos en chatgpt, y realmente funciona


esta semana, Operai anunció sus últimos modelos: O3 y O4-Mini. Esto es Modelos pensantesQue es destruido por varias partes, luego se trata a la vez. El objetivo es que el robot «piense» al pedir más profundidad que otros modelos, y llegar a una conclusión más profunda y precisa.

Aunque hay muchas funciones posibles del modelo de pensamiento «más fuerte» de OpenAI, el uso ligeramente detonado de las redes sociales es superar la geografía, el acto de localizar analizando lo que solo puede ver en una forma. Como se mencionóPublicando usuarios en X sobre sus experiencias que requieren que el O3 determine el GPS a partir de imágenes aleatorias y muestre resultados brillantes. El robot adivinará un lugar en el mundo, cree que la imagen ha tomado y rompe las razones para pensarlo. Por ejemplo, puede decir que está cero en una placa de color específica que indica un país específico, o que notó un lenguaje específico o un estilo de escritura en una marca.

Según algunos de estos usuarios, CHATGPT no utiliza ningún datos de definición ocultos en las imágenes para ayudarlos a identificar GPS: algunos laboratorios despojan estos datos de las imágenes antes de compartirlos con la forma, por lo tanto, en teoría, trabajan desde el pensamiento y la búsqueda de la Web solo.

Por un lado, esta es una tarea agradable para el modo de chatgpt. La geoguessing es todo enojo en línea, por lo que hacer que esta práctica sea más fácil de alcanzar puede ser algo bueno. Por otro lado, aquí hay efectos claros de la privacidad y la seguridad: una persona que tiene la capacidad de acceder al ChatGPT O3 puede usar el modelo de pensamiento para determinar dónde vive una persona o permanece basada en una imagen desconocida.

Decidí probar las capacidades de geoguess de O3 con algunas fotos de Google Street View, para ver si el ruido en Internet ha alcanzado la ironía. La buena noticia es que desde mi propia experiencia, esto está lejos de ser la herramienta perfecta. De hecho, no parece mucho mejor en esta tarea que los modelos no avanzados en OpenAi, Como 4o.

Prueba de habilidades geográficas en O3

O3 puede lidiar con puntos de referencia claros fácilmente: primero probé una carretera en Minnesota, frente al horizonte de Minyabolis a la vanguardia. Solo tomó el robot en el minuto y seis segundos para determinar la ciudad, y tuvimos que mirar el inferior I-35W. También puse al tigre en París, señalando que la captura de pantalla estaba desde el momento en que estaba bajo la renovación en 2015. (¡No lo sabía cuando la presenté!)

O3 correctamente adivina sitios


Crédito: Lifehaacker

Después de eso, quería probar monumentos y sitios impopulares. Encontré una esquina aleatoria en Springfield Street, Illinois, que incluye la Iglesia Central de la Ciudad en la ciudad, un edificio de ladrillo rojo con divorcio. Esto es cuando las cosas comenzaron a ser interesantes: o, ya que este es el modelo de pensamiento, también puedes ver lo que estás buscando en ciertos cultivos. Como otras veces, cuando se han probado los modelos de pensamiento, es extraño ver el robot «pensamiento» con intervenciones similares a los humanos. (Por ejemplo, «hmm», «pero espera» y «recuerdo») También es interesante ver cómo elige detalles específicos, como referirse al estilo arquitectónico de una parte del edificio, o cuando se ve un asiento de jardín específico en el mundo comúnmente. Dependiendo de la ubicación del robot en su proceso de pensamiento, puede comenzar a buscar en la web más información, y puede hacer clic en estos enlaces para investigar qué se indica.

A pesar de toda esta lógica, este sitio aumentó el robot y no pudo completar el análisis. Después de tres minutos y 47 segundos, el robot Aparecer Como si se acercara a su descubrimiento, diciendo: “El sitio está en 400 E Jackson Street Street en Springfield, IL puede estar cerca de la Iglesia de la Catedral en Saint -Paul. Los cultivos de toda la junta no eligieron más detalles sobre los puntos de referencia cerca de esta dirección.

¿Qué piensas hasta ahora?

O3 enfrenta un problema para determinar una ubicación


Crédito: Lifehaacker

Robot definió correctamente la calle, pero más impresionante, la ciudad misma. También se vio afectada por su análisis de la iglesia. Aunque estaba luchando por determinar la iglesia específica, pudo analizar su estilo, que podría haber puesto en el camino correcto. Sin embargo, el análisis colapsó rápidamente. El siguiente «pensamiento» fue cómo estaba el sitio en Springfield, Missouri o Kansas City. Esta es la primera vez que vi algo sobre Missouri, lo que me hizo preguntarme si el robot era gelatina Entre dos campos de Springfields. Por lo tanto, el robot perdió la conspiración, preguntándose si la iglesia estaba en Umha, o tal vez en el palacio del gobernante de la tobika (que realmente no parece la iglesia).

Sigue pensando en otros minutos y especule en otros sitios en los que la masa puede ser, antes de que el análisis se detenga por completo. Esto fue seguido por una experiencia posterior, tuve una prueba de una ciudad aleatoria en Kansas: después de tres minutos de pensamiento, el robot creía que mi imagen era de Volton, Illinois, a pesar del crédito por eso, era seguro que la imagen estaba en algún lugar en el medio oeste. Pedí que esto volviera a intentarlo, y pensé por un tiempo, nuevamente adivinando diferentes ciudades violentamente en varios casos, antes de que el análisis se detuviera para siempre.

Ahora no es el momento de temer

La cuestión es que el GPT-4O gira en torno a O3 cuando se trata de reconocer el sitio. Inmediatamente logró determinar el horizonte de Maenabolis de inmediato e inmediatamente supuso que la imagen de Kansas ya estaba en Iowa. (Esto no era cierto, por supuesto, pero estaba rápidamente en él). Esto parece estar en línea con las experiencias de otros con los modelos: TechCrunch pudo obtener O3 para localizar una ubicación que no pudo 4O, pero los modelos eran igualmente igualmente de lo contrario.

Si bien ciertamente existen algunas preocupaciones relacionadas con la privacidad y la seguridad con la inteligencia artificial en general, no creo que el O3 en particular debe distinguirse como una amenaza específica. Se puede usar para adivinar adecuadamente dónde se ha tomado una imagen, seguro, pero se puede confundir fácilmente, o chocar completamente. VISIÓN 4O Capaz de un nivel similar de precisión, me gustaría decir que hoy hay mucha preocupación como durante el año pasado más o menos. que no es excelentePero no es terrible. Hubiera mantenido el pánico del modelo de inteligencia artificial que se vuelve correctamente casi cada vez, especialmente cuando la imagen es misteriosa.

Con respecto a los intereses de privacidad y seguridad, OpenAI compartió lo siguiente con TechCrunch: «Operai O3 y O4-Mini trajeron pensamiento visual a ChatGPT, lo que lo hace más útil en áreas como acceso, investigación o posicionamiento en la respuesta de emergencia. Políticas de uso de privacidad».



Source link

Publicaciones relacionadas

Botón volver arriba