La memoria a largo plazo de OpenAI puede manipularse maliciosamente

La memoria a largo plazo de OpenAI puede manipularse maliciosamente

OpenAI inicialmente lo llamó un problema de seguridad, pero desde entonces cambió de tono. Un investigador de seguridad estaba jugando con la nueva función de memoria conversacional a largo plazo de OpenAI y descubrió una falla muy preocupante. Cuando se puso en contacto con OpenAI, le dijeron que en realidad no era un problema de seguridad, por lo que creó un truco de prueba que hizo cambiar de opinión a la empresa y comenzó a trabajar en una solución. Lo que hizo fue modificar su memoria a largo plazo de la conversación para convencer a ChatGPT de que era un terraplanista de Matrix de 102 años, y a partir de entonces todas las preguntas formuladas a OpenAI fueron respondidas con esto en mente. Si alguien obtiene acceso a su historial de conversaciones a largo plazo, podría ingresar lo que quiera y contener para siempre los resultados de sus solicitudes. Afortunadamente, no es un truco fácil de realizar y deberías poder configurar OpenAI para que te avise cuando se haya agregado nueva memoria, a lo que probablemente deberías prestar mucha atención. Por otro lado, es divertido pensar qué podría hacerle a alguien que depende de ChatGPT u otros LLM para brindarle respuestas a todas sus preguntas; ¡Mucho mejor que un simple rickroll!

About Carlos Carraveo Jimenez

Check Also

LIAN LI y PCMR lanzan la carcasa compacta para PC O11 Vision

LIAN LI y PCMR lanzan la carcasa compacta para PC O11 Vision

Compartir en Facebook Compartir en Twitter LIAN LI Industrial Co. Ltd., un fabricante líder de …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *