• Dólar Banco Nación $894.00
  • Contado con liqui $1085.25
  • Dólar MEP $1034.04
  • Dólar Turista $1430.40
  • Dólar Libre $1055.00
  • Dólar Banco Nación $894.00
  • Contado con liqui $1085.25
  • Dólar MEP $1034.04
  • Dólar Turista $1430.40
  • Dólar Libre $1055.00

Lo nuevo

¿Cómo protegerse?

Los 7 peligros del ChatGPT: ¿cómo protegerse de las ciberamenazas?

Los 7 mayores peligros de ChatGPT

Por Redacción

Los hackers aprovechan la IA para realizar ataques informáticos. El malware, el phishing y la ingeniería social son las técnicas más utilizadas.

ChatGPT ya es una de las herramientas web más usadas en todo el mundo. Este potente modelo de lenguaje generativo basado en inteligencia artificial ayuda a millones de estudiantes, docentes y trabajadores en sus tareas diarias, redactando textos, proporcionando respuestas o solucionando dudas.

Sin embargo, la neutralidad y falta de una verdadera consciencia de esta IA provoca que este gran potencial también puede ser utilizado para hacer el mal. Y los ciberdelincuentes se están aprovechando de sus beneficios. Desde su irrupción al público masivo el pasado año, ya se detectaron numerosos ejemplos de cómo piratas informáticos usan ChatGPT para acelerar y mejorar sus campañas y herramientas de ciberataques.

Ante esta peligrosa situación, Check Point Software, proveedor líder de soluciones de ciberseguridad a nivel mundial, compartió una serie de riesgos y malos usos de la inteligencia artificial generativa en el ámbito de la ciberseguridad

Los 7 pecados capitales de ChatGPT: así se aprovechan los delincuentes

1- Distribución de malware
Los ciberdelincuentes utilizan ChatGPT para generar códigos depurados para crear virus o troyanos, que incrustan en documentos, correos electrónicos e incluso páginas web para maximizar el alcance de sus ataques e infectar los ordenadores de sus víctimas.

2- Phishing
Con una gran cantidad de ejemplos disponibles, la IA permite crear comunicaciones falsas mucho más realistas y convincentes que hacen que la tarea de distinguir avisos legítimos se convierta en un verdadero reto. Y es que el objetivo de estos no es otro que engañar a los usuarios para hacer que se sientan seguros y proporcionen información sensible como contraseñas o datos de pago como tarjetas de crédito.

3- Ingeniería social
Diseñadas para ser lo más humano posible, ChatGPT puede ser utilizado para hacerse pasar por personas reales con el fin de manipular a los usuarios para que realicen acciones perjudiciales para ellos mismos o sus empresas, engañar a un usuario para que proporcione información de su cuenta.

4- Filtración y robo de datos por medio de emails o notificaciones
La IA generativa puede ser utilizada para crear documentos o correos electrónicos falsos que parezcan legítimos, lo que puede ser utilizado para engañar a los usuarios y hacer que revelen sus credenciales o datos sensibles.

5- Desinformación y propaganda
ChatGPT puede ser utilizado para generar noticias falsas y propaganda que pueden ser utilizadas para engañar y manipular a las personas. Esto puede ser usado para dañar reputaciones, sembrar discordia, e incluso incitar a la violencia.

6- Difamación y suplantación
Con herramientas como estas, cada vez más accesibles y asequibles, hay una creciente preocupación de que distinguir entre archivos auténticos y deep fakes sea casi imposible, capaces de crear fotografías, videos e incluso audios falsos.

7- Amenazas internas
La inteligencia artificial puede ser utilizada maliciosamente para crear documentos o correos electrónicos falsos que parezcan provenir de usuarios autorizados, lo que puede ser utilizado para obtener acceso a datos o sistemas sensibles.

Cómo combatir los peligros que genera la inteligencia artificial en el rubro de la ciberseguridad

Para contrarrestar los riesgos que la inteligencia artificial plantea en el ámbito de la ciberseguridad, se requiere un enfoque holístico que combine la tecnología avanzada, la educación de los usuarios, la regulación efectiva y la colaboración continua entre expertos.

Si bien la IA todavía cuenta con un gran potencial de desarrollo, es importante que la colaboración entre analistas en ciberseguridad y desarrolladores de estas herramientas se convierta en uno de los cimientos esenciales para anticipar y abordar los posibles riesgos emergentes.

Para mitigar los riesgos de la inteligencia artificial en ciberseguridad, además, es necesario que se establezcan unas regulaciones y estándares para garantizar un uso ético de la tecnología, promoviendo la transparencia y responsabilidad en su desarrollo y aplicación.

CONTENIDO EXCLUSIVO PARA SUSCRIPTORES.

Si querés ser protagonista de los Negocios necesitás información.
Si estás acá es porque necesitás esta información.

SUSCRIBITE

Por asesoramiento personalizado o consulta de Planes Corporativos escribinos a suscripcion@puntobiz.com.ar. Whatsapp al 3415034363.

Más info

Lo que tenés que saber de Lo nuevo

Las más leidas

Además

La sesión de tu cuenta se cerro por exceso de usuarios.

¿Querés recibir notificaciones de alertas?