La IA que ha causado furor durante los últimos meses, gracias a que permite realizar tareas humanas sin mayores complicaciones, esconde un peligro: Puede ser fácilmente utilizada por ciberdelincuentes para enviar emails fraudulentos sin las clásicas faltas de ortografía, que hasta ahora los delataban, o mantener una conversación con la víctima con argumentos convincentes basados en IA. Y es solo el comienzo.
Santiago, febrero 23 de 2023.- A estas alturas, debido a su sofisticación, detectar amenazas impulsadas por IA es cada vez más difícil, incluso para los más expertos. Debido a esto, es necesario actualizar las medidas de seguridad existentes ya que, básicamente, están quedando obsoletas. De hecho, nos encontramos en un punto donde el ransomware ha alcanzado un peak y las notificaciones de violación de datos son pan de cada día.
Hasta hace poco, una manera fácil de detectar estafas era mediante errores gramaticales y ortográficos en correos electrónicos sospechosos. Pero, con la llegada de ChatGPT, una inteligencia artificial de OpenAI que permite interactuar a través de preguntas y peticiones, que utiliza un modelo de entrenamiento llamado GPT-3.5, con el que puede dar respuestas increíblemente buenas y creíbles, sobre todo en textos cortos y en inglés, esta barrera de defensa parece haberse roto finalmente.
Por supuesto, uno de los primeros grupos en darse cuenta de la variedad de usos que se puede dar a ChatGPT fueron los cibercriminales. Gracias a esta herramienta, es posible que se haya eliminado el último elemento detectable de muchas de las estafas, spams y phishing.
Gracias a esta IA se ha llegado a un punto en que se ha logrado engañar a un humano y convencerlo que estaba hablando con otra persona un 100% de las veces.
¿Qué podemos hacer entonces para protegernos, tanto a nosotros mismos como nuestros datos?
Las aguas de internet hoy son posiblemente las más peligrosas en las que hemos navegado, porque sus horizontes y hasta donde se puede llegar con las IA que se están desarrollando actualmente a un paso trepidante, son completamente desconocidos. Afortunadamente, junto a estas se están creando contrapartes que puedan detectar texto generado por ChatGPT. ¿Qué tan efectivas puedan ser como medida de defensa? Está por verse.
Lo que podemos hacer para defendernos hoy mismo es, primero que todo, verificar las comunicaciones que impliquen acceso a información o tengan movimientos de dinero. Al mismo tiempo, ser inquisitivo y preguntar hasta estar seguros. Pedir ayuda y cerciorarnos de cada elemento posible si hay dudas. En un mundo donde las IA están haciendo sus primeras apariciones, y no podemos estar seguros de efectivamente estar interactuando con otra persona, más vale prevenir que curar.
También es importante ser muy desconfiado con comunicaciones que lleguen por mensaje de texto o correo electrónico de entidades financieras, proveedores de telecomunicaciones y demás servicios públicos que soliciten ingresar el usuario y password. Este tipo de entidades tienen líneas de servicio al cliente donde se puede validar la autenticidad de estas comunicaciones y denunciar los números o correos electrónicos desde los que se estén recibiendo los intentos de fraude.
Por otra parte, si pretendemos usar ChatGPT y aprovechar sus bondades, es importante tener en cuenta los permisos que el usuario concede a aplicaciones de este tipo.