OpenAI inicialmente lo llamó un problema de seguridad, pero desde entonces cambió de tono. Un investigador de seguridad estaba jugando con la nueva función de memoria conversacional a largo plazo de OpenAI y descubrió una falla muy preocupante. Cuando se puso en contacto con OpenAI, le dijeron que en realidad no era un problema de seguridad, por lo que creó un truco de prueba que hizo cambiar de opinión a la empresa y comenzó a trabajar en una solución. Lo que hizo fue modificar su memoria a largo plazo de la conversación para convencer a ChatGPT de que era un terraplanista de Matrix de 102 años, y a partir de entonces todas las preguntas formuladas a OpenAI fueron respondidas con esto en mente. Si alguien obtiene acceso a su historial de conversaciones a largo plazo, podría ingresar lo que quiera y contener para siempre los resultados de sus solicitudes. Afortunadamente, no es un truco fácil de realizar y deberías poder configurar OpenAI para que te avise cuando se haya agregado nueva memoria, a lo que probablemente deberías prestar mucha atención. Por otro lado, es divertido pensar qué podría hacerle a alguien que depende de ChatGPT u otros LLM para brindarle respuestas a todas sus preguntas; ¡Mucho mejor que un simple rickroll!
Check Also
LIAN LI y PCMR lanzan la carcasa compacta para PC O11 Vision
Compartir en Facebook Compartir en Twitter LIAN LI Industrial Co. Ltd., un fabricante líder de …