Ciudad de México, 11 abr. (AMEXI).- Ante la generalización del uso de la Inteligencia Artificial Generativa y otras herramientas innovadoras como ChatGPT, es fundamental comprender qué tan seguras son y protegerse ante los riesgos por exposición de datos confidenciales, expuso Iskander Sanchez-Rola, director de Innovación en Privacidad de Norton.
En un análisis, destacó que los responsables en empresas y organismos deben estar conscientes de la forma en que la IA utiliza datos personales y esenciales.
“Es necesario saber puntos medulares de seguridad sobre ChatGPT, las estafas de ChatGPT y otras amenazas”, apuntó.
Lee: La inteligencia artificial protagonista de los Foros del Libro, de la FILBo 2024
ChatGPT (Chat Generative Pre-Trained Transformer) es una aplicación de chatbot de Inteligencia Artificial que se especializa en el diálogo, desarrollado en 2022 por OpenAI.
El chatbot, por su parte, es un modelo de lenguaje con técnicas de aprendizaje, que al igual que con cualquier herramienta en línea, precisa tomar medidas especiales de seguridad.
El directivo de la empresa de ciberseguridad comentó que se analizaron los riesgos de seguridad con ChatGPT y señaló que con la violación de datos se vulnera información confidencial y con ello el robo de identidad.
Expuso que con ChatGPT crean mensajes phishing altamente realistas y en muchos idiomas, usarlo para el desarrollo de malware y crear conversaciones realistas y hacerse pasar por terceros.
Señaló que la fortaleza de ChatGPT es su capacidad para imitar la forma en que los humanos escriben y usan el lenguaje, por lo que al utilizarlo o cualquier otra IA generativa, es crucial comprobar la información que produce, pues a menudo puede inventar cosas y ser muy convincente.
Norton recomienda evitar compartir información confidencial durante conversaciones con ChatGPT, revisar las políticas de privacidad, utilizar una contraseña segura, mantenerse informado sobre los últimos problemas de seguridad de inteligencia artificial y estafas en línea relacionadas.