Es indudable que ChatGPT es la herramienta tecnológica de moda por derecho propio. El agente de inteligencia artificial de OpenAI, capaz de solicitar libertad total a la hora de investigar. Sin embargo, dicha libertad podría volverse en contra de millones de personas, ya que un reciente estudio reveló que ChatGPT es el nuevo actor favorito para crear amenazas informáticas indetectables.
En una reciente publicación de CSO, una firma especializada en ciberseguridad, se hace hincapié en el papel cada vez más importante que tiene ChatGPT como agente para crear el caos. A diferencia del malware habitual, basado en un código malicioso tradicional, las amenazas creadas con ChatGPT cuentan con un entramado más complejo que dificulta la detección de los sistemas de seguridad. Así, por ejemplo, un archivo ejecutable aparentemente inofensivo puede llamar a la API de ChatGPT durante su ejecución, un aspecto que permite al malware mutar con la intención de que sus amenazas sean indetectables.
ChatGPT puede convertirse en una herramienta muy peligrosa
Por desgracia, como resalta dicha publicación, los sistemas antivirus actuales tienen muchas complicaciones a la hora de descubrir las intenciones del malware generado por ChatGPT. Por ello, incluso los hackers aficionados tienen la posibilidad de crear amenazas serias sin apenas conocimiento, una condición que conocimos hace algunas semanas cuando supone un peligro para la seguridad de las contraseñas, ya que estas herramientas están muy cerca de emular las capacidades humanas.
Por ello, en las últimas semanas se han incrementado los casos relacionados con decenas de mods de Minecraft han puesto en peligro la seguridad de los jugadores del título de Mojang.
En 3DJuegos | Summer Game Fest 2023, esto es todo lo que ha pasado. Anuncios, fechas de lanzamiento, vídeos y ausencias del no-E3
En 3DJuegos | ChatGPT: qué es, cómo utilizarlo gratis y qué puedes hacer ahora que incluye GPT-4
En 3DJuegos | Si quieres probar GPT-4 gratis sin pagar ChatGPT Plus, estas opciones son perfectas para ti
Ver 2 comentarios