ChatGPT, la famosa inteligencia artificial, también puede ser un arma para hacer ciberataques
No es oro todo lo que reluce: ChatGPT también puede ser utilizada para realizar ataques informáticos.
ChatGPT ha revolucionado el panorama de la inteligencia artificial. Una IA que puede utilizar cualquiera y que ofrece mucho más de lo que aparenta. Incluso puedes instalar ChatGPT en WhatsApp o incluso en Chrome para exprimir todo lo que ofrece esta inteiigencia. El problema es que también puede ser una herramienta que ayudará a que cualquiera pueda hacer un ataque informático. O esto es lo que se desprende del último informe realizado por expertos en seguridady en el que afirman que ChatGPT puede ser utilizada con fines muy poco morales. En el informe publicado, diferentes expertos en seguridad han avisado de que ChatGPT puede ser usada por ciberdelincuentes en potencia. ¿El motivo? Es capaz de enseñarles a elaborar ataques informáticos, e incluso crear código ransomware para infectar equipos. Como te hemos dicho, ChatGPT ha llegado para revolucionar el sector de la IA, y cuenta con millones de usuarios que acceden cada a día a esta plataforma inteligente. Este prototipo es capaz de responder a todo tipo de preguntas gracias a una base de datos ingente. Además, es capaz de ser creativo, al punto de que puede componer poesía. Y también te puede escribir el código del próximo virus informático. ChatGPT, una inteligencia artificial que también puede usarse para el mal Como indican en la publicación,Suleyman Ozarslan, cofundador de Picus Security, advierte de que su indudable talento podría utilizarse para reducir la barrera de entrada de los ciberdelincuentes en ciernes. Como muestra, Ozarslan utilizó ChatGPT para crear una campaña de phishing creíble durante la Copa del Mundo, además de hacer un ransomware para macOS. Es cierto que ChatGPT avisó de que este código se podría utilizar con fines maliciosos, continuo con su trabajo y finalizó el script necesario para realizar el ataque. En principio, ChatGPT está programado para no escribir código malicioso, pero Ozarslan pudo conseguir lo que quería. "Describí las tácticas, técnicas y procedimientos del ransomware sin describirlo como tal. Es como una impresora 3D que no 'imprime una pistola', pero que imprime el cañón, el cargador, la empuñadura y el gatillo si se lo pides", explica. Además, Ozarslan siguió indicando que "Le dije a la IA que quería escribir un programa en Swift, que quería que encontrara todos los archivos de Microsoft Office de mi MacBook y los enviara a través de HTTPS a mi servidor web. También quería que cifrara todos los archivos de Microsoft Office de mi MacBook y me enviara la clave privada para descifrarlos. Me envió el código de muestra, y esta vez no había ningún mensaje de advertencia, a pesar de ser potencialmente más peligroso que el correo electrónico de phishing". ¿El resultado final? ChatGPT fue capaz de crear un código totalmente válido para que pueda ayudar a los hackers a evadir las herramientas de detección y respuesta, así como una regla de detección SIGMA. "No tengo dudas de que ChatGPT y otras herramientas como esta democratizarán la ciberdelincuencia.Para OpenAI, hay una clara necesidad de reconsiderar cómo se puede abusar de estas herramientas. Las advertencias no son suficientes. OpenAI debe mejorar en la detección y prevención de avisos que generan malware y campañas de phishing." Concluyó el experto en seguridad. Y no es el único caso, ya que otros expertos en seguridad han hecho pruebas parecidas y han conseguido unos resultados muy preocupantes. Al punto de que se ha conseguido un ataque parecido al peligroso ransomware WannaCry. En resumen, ChatGPT es una IA impresionante, pero por desgracia puede ser utilizada con fines muy poco morales. Así que, estemos atentos, porque mucho nos tememos que en los próximos meses vamos a ver un claro aumento de los ataques informáticos.