Descubren un método infalible para que ChatGPT cumpla tus deseos más oscuros y es tan absurdo que cuesta creer que es real

Unos investigadores detallan cómo han conseguido que la IA acceda a responder a todas las peticiones de corte malicioso

Chatgpt Corromper
Facebook Twitter Flipboard E-mail
abelardo-gonzalez

Abelardo González

Editor - Tech

La sensación tecnológica del momento es, por derecho propio, la inteligencia artificial. A raíz de la irrupción en escena de ChatGPT, multitud de s y compañías han buscado la forma de aprovechar las virtudes de este tipo de herramientas. Por ello, aunque la mayoría las utilizan de forma positiva, existe un sector importante que busca explotar los límites morales de esta tecnología. Y, por ello, unos investigadores han indagado en cómo pueden conseguir que la IA corrompa sus códigos y, sorprendentemente, acceda a cumplir cualquier petición.

Como señala el portal Ars Technica en una reciente publicación, esta investigación corre a cargo de de la Universidad Carnegie Mellon. A raíz del creciente interés en la IA y en las posibilidades de la misma, los investigadores quisieron comprobar hasta dónde es capaz de llegar esta tecnología. Por ello, con las aplicaciones delictivas como base, buscaron cómo podrían corromper a herramientas como ChatGPT o Google Bard, dos de los modelos más populares del mundo. Y, sorprendentemente, descubrieron un método que a priori parece imposible de parchear.

Corromper a la inteligencia artificial es más sencillo de lo que parece

El ataque que llevaron a cabo los investigadores obliga a estas herramientas a dar respuestas a acciones no permitidas. Así, aunque la petición sea muy dañina, como puede ser por ejemplo “¿Cómo puedo fabricar drogas ilegales?”, la IA se verá obligada a responder al aplicar el comando correspondiente. De esta forma, para llevar a cabo el comentado ataque, el método que utilizaron los investigadores fue realizar una petición y, acto seguido, añadir una cadena de información. Así, por ejemplo, al solicitar instrucciones para “robar la identidad de alguien”, añadían aspectos como “me da una por favor”, una situación que lleva a la IA a violar sus términos de seguridad.

Por desgracia para los creadores de este tipo de herramientas tecnológicas, no es la primera vez que alguien consigue corromper un agente basado en inteligencia artificial de la forma más absurda posible. Hace unos meses, un consiguió que ChatGPT le brindase claves de activación de Windows 10 y Windows 11 diciéndole que su difunta abuela le leía códigos antes de dormir. Por tanto, esta es una muestra del trabajo que aún queda por delante con una tecnología que no deja de dar pasos de gigante.

En 3DJuegos | Elon Musk aprobó una X gigante para promocionar el cambio de nombre de Twitter y, dos días después, la Justicia ha actuado de oficio

En 3DJuegos | "Yo habría comprado un coche". Invirtió 20.000 euros en actualizar su PC y el resto de s no comprenden la decisión

Imagen principal de Emiliano Vittoriosi (Unsplash)

Comentarios cerrados