La Inteligencia Artificial como herramienta en la Ciberseguridad

La implementación de herramientas basadas en la Inteligencia artificial hacia el campo de la ciberseguridad se presenta como uno de los grandes aciertos humanos en varios niveles y una de las mejores aplicaciones que se le han dado a la IA. En la era digital en la que vivimos, la privacidad y protección de datos son problemáticas a nivel global. Las herramientas tecnológicas ofrecen precisión y capacidad continua de aprendizaje lo que facilita la protección de datos y mantiene la información confidencial bajo control. La Inteligencia Artificial puede aplicarse en la ciberseguridad de varias formas, por ejemplo con la autenticación de datos o  la detección de ciberamenazas, que se utilizan como instrumentos viables para la protección de información sensible. 

Autenticación de datos 

La autenticación de datos se define como el proceso por el cual un individuo verifica su identidad para acceder a determinados datos, sirve para confirmar que quien sea que intente acceder a dicho sitio sea en realidad esa persona. 

Uno de los sistemas de ciberseguridad más populares y que todos hemos usado en algún momento de nuestras vidas, ya sea al crear un nuevo correo electrónico o al hacer compras  en línea es el “CAPTCHA”. Estos sirven para distinguir a los humanos de los robots y se presentan en forma de un texto distorsionado, compuesto de una sucesión de letras y números, que evitan que bots maliciosos accedan a sitios web o creen una cuenta falsa. Este método ha sido reemplazado por nuevos sistemas mucho más eficaces y seguros, sin embargo vale la pena mencionarlo ya que su origen se debe a Alan Turing, considerado como el padre de la Inteligencia Artificial o quien por primera vez presenció a una máquina manifestando inteligencia, CAPTCHA = Completely Automated Public Turing Test.

Hoy en día existe un gran abanico de mecanismos de autenticación que se pueden implementar a través de la IA para garantizar la protección de cuentas y datos. El sistema más conocido es el del identificador y la contraseña, ampliamente utilizado por su practicidad y porque es relativamente sencillo memorizar una contraseña. Otro sistema es el biométrico que se basa en la verificación de identidad por medio de la captura de una parte del cuerpo con caracteristicas únicas del usuario, como el escaneo de huellas dactilares, identificación del iris o reconocimiento facial. Estos sistemas son los más comúnmente utilizados por la población en general aunque existen otros de más complejidad como la autenticación multifactor o la identificación por radio frecuencia (RFID) muy utilizada en la logística y la industria militar. 

Detección y prevención de ciberamenazas 

Las ciberamenazas son un riesgo latente en la ciberseguridad ya que pueden comprometer la confidencialidad de grandes cantidades de datos. Se pueden presentar de manera localizada apenas como un virus o  un malware o bien escalar hasta hackers experimentados o agentes de espionaje. Estas ciberamenazas pueden ser prevenidas por medio del análisis histórico de datos, con el cual se obtienen predicciones y estadísticas al analizar patrones antes de que sucedan.

La IA brinda herramientas para combatir estas amenazas por medio de la implementación de medidas preventivas como Firewalls y un Sistema de Detección de Intrusiones (IDS). De igual manera los algoritmos de Machine Learning (ML) son capaces de detectar anomalías y patrones a partir del almacenamiento de información. El uso de algoritmos encriptados evita el acceso a sitios no autorizados, de esta manera la anticipación y el estudio de estas amenazas reduce en gran medida el riesgo de usurpación de datos y brinda soluciones constantes. 

La IA como arma de doble filo 

El uso de bots y otras técnicas, como el “phishing” (suplantación de identidad y robo de datos confidenciales) pueden poner en riesgo la seguridad de los usuarios. Los atacantes han aumentado la sofisticación en sus actos delictivos logrando así engañar a muchos usuarios. Un ejemplo de herramientas de IA utilizadas maliciosamente son los llamados “deepfakes”. Este término se deriva del conjunto de conceptos “Deep Learning” (aprendizaje profundo) y “Fake” (falso) y se refiere a material audiovisual (tanto fotos, videos y audios) generado con un software generativo de IA capaz de suplantar la identidad de un individuo. Se ha visto frecuentemente utilizado en propaganda falsa y videos de celebridades o figuras públicas en los que se persuade a los usuarios sobre descargar aplicaciones fraudulentas.  A pesar de que la edición de fotos y de video ha existido por un largo periodo de tiempo, el desarrollo de la IA en los últimos años ha sido tan exponencial que impide que muchos puedan distinguir la realidad de la edición. 

Como toda herramienta, la IA puede utilizarse como un poderoso instrumento para el aprendizaje y la mejora de la vida humana, sin embargo es necesario que tomemos en cuenta el otro lado de la moneda, y es que sus aplicaciones en la ciberseguridad son aplicables tanto para el bien como para el mal. Los cibercrimenes constituyen un problema actual en el entorno digital que pueden afectar a cualquier individuo que se encuentre haciendo uso de la red. 

Conclusión

Es crucial que la implementación de la IA dentro del ámbito de la ciberseguridad se mantenga actualizada y se apliquen estrategias por parte de las compañías y organismos pertinentes. Para combatir el mal uso de la IA es necesario estudiar las vulnerabilidades y asegurar que las soluciones tecnológicas no pongan en riesgo la privacidad, seguridad y experiencia del usuario. Por otra parte es importante exhortar a la población a que no se fíe de todo lo que ven en la red e incentivar una educación en seguridad cibernética para que el usuario se mantenga atento a los ataques de ingeniería social y las aplicaciones negativas que se le dan a la IA.

Referencias

Blauth, T. F., Gstrein, O. J., & Zwitter, A. (2022). Artificial intelligence crime: An overview of malicious use and abuse of AI. Ieee Access, 10, 77110-77122.https://ieeexplore.ieee.org/abstract/document/9831441

Rana, M. S., Nobi, M. N., Murali, B., & Sung, A. H. (2022). Deepfake detection: A systematic literature review. IEEE access, 10, 25494-25513.https://ieeexplore.ieee.org/abstract/document/9721302

Sarker, I. H., Kayes, A. S. M., Badsha, S., Alqahtani, H., Watters, P., & Ng, A. (2020). Cybersecurity data science: an overview from machine learning perspective. Journal of Big data, 7, 1-29. https://doi.org/10.1186/s40537-020-00318-5

Comentarios

Aún no hay comentarios. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *