Uno de los principales aspectos de ChatGPT es su capacidad de seguir las normas. Cuando se le plantean situaciones de dudosa ética o moralidad, el bot se muestra reacio a acceder a las peticiones de los s, una situación que es posible gracias a los límites interpuestos por OpenAI y Microsoft. Por ello, muchas personas se quedan con la miel en los labios a la hora de intentar llevar un paso más allá al agente basado en inteligencia artificial. Y, con dicha situación como premisa, un hacker ideó a WormGPT, el hermano malvado del popular bot conversacional.
Como recoge el portal PC Gamer en una reciente publicación, WormGPT está en contra de los límites de la moralidad. Por ello, todos aquellos que lo utilicen pueden llevar a cabo tareas nefastas como la creación de malware o, incluso, plantillas para correos electrónicos phishing. De esta forma, WormGPT es ideal para delinquir y estafar a otros s, un aspecto con el que ChatGPT se muestra tajante. Y, como el mismo medio informa, está a disposición de cualquier interesado que desee cumplir dos condiciones: navegar en la dark web y, a su vez, gastar 60 euros al mes.
El gemelo malvado funciona de manera similar a ChatGPT
En esencia, WormGPT funciona de forma muy similar a ChatGPT. A través de peticiones, los s pueden llevar a cabo distintas demandas utilizando lenguaje natural para que, posteriormente, el bot acceda a cumplir todo lo que estos desean. Así, ofrece resúmenes, código, redacciones y otras funciones presentes en ChatGPT. No obstante, a diferencia de este, WormGPT no está sujeto a obligaciones legales de ningún tipo y es capaz de cruzar los límites tantas veces como se desee. Por ello, es un arma muy peligrosa para agentes con malas intenciones.
En el pasado, ya hemos visto cómo los s consiguen saltarse las restricciones de ChatGPT de manera ingeniosa. Hace escasos meses, un consiguió que este le brindase claves de activación de Windows únicamente pidiéndole que se hiciera pasar por su abuela. Sin embargo, WormGPT no exige ingenio de ningún tipo, ya que es capaz de cumplir este tipo de peticiones sin que el tenga que dar giros de 180º. Por ello, como ya advirtieron los expertos, esta herramienta basada en IA es muy peligrosa por las posibilidades que tiene en su haber.
En 3DJuegos | "Era lo más barato". ChatGPT hace historia y se convierte en la primera IA que oficia una boda
Ver 3 comentarios