La inteligencia artificial ha sorprendido a muchos por su amplia gama de oportunidades. Sin embargo, no pasó mucho tiempo para que los ciberdelincuentes le hallaran una aplicación para el crimen informático. Así es, ahora los criminales también utilizan IA para cometer sus estafas. Quédate y entérate cómo actuar ante esta situación.
Cuando la Inteligencia Artificial despegó ante la vista del mundo, todos la admiraron con esperanza y cierto temor. Se trataba de una herramienta poderosa, y con un pleno potencial para acompañar las habilidades humanas. Sin embargo, aunque era buena simulando, no era tan hábil en materia de creación. La imaginación parecía escapársele.
Fue así que comenzaron los estudios en la red generativa antagónica. Esta se dividía en dos roles que se enfrentaban en un juego de suma cero: la red generativa y la red discriminativa.
Mientras que la primera era buena creando muestras de las solicitudes realizadas a la IA. La segunda funcionaba como una especie de filtro para discernir, o identificar, que tan real o falso había resultado su trabajo de acuerdo a la consulta. Esto obligaba a la máquina a doblar sus esfuerzos.
En pocos días, ya circulaban en internet diversos especialistas de distintas áreas disertando sobre cómo se podría utilizar la IA en determinado campo o sector. A medida que pasó el tiempo, y la tecnología crecía, surgieron técnicas aún más especializadas.
Su rol era claro: la Inteligencia Artificial sería un compañero idóneo. Un copiloto perfecto para las distintas tareas humanas.
Pero, no advertimos en un primer momento, que también se pensaba lo mismo en el otro lado de la ley. Varios especialistas de ciberseguridad ya han detectado estafas altamente sofisticadas mediante el uso de Inteligencia Artificial.
¿Cómo utilizan la Inteligencia Artificial para cometer un cibercrimen?
Cuando se menciona a la inteligencia artificial, el imaginario popular nos puede traer a colación el famoso ChatGPT. Sin embargo, esta no es la única IA en funcionamiento. Hay múltiples avances en el campo de la red generativa antagónica en materia de video, imagen y también voz. Para este caso, nos detendremos en este último.
Las nuevas estafas suplantan la identidad de una víctima mediante una IA de voz que replica la voz de la misma. Los casos más destacados siguen el guion de un conocido o familiar en estado de alteración o nerviosismo pidiendo ayuda insistentemente.
De más está por aclarar, que el pedido de ayuda generalmente incluye un pago. Lo común es pedir una tarjeta de regalo o criptomonedas, ya que de esta forma cualquier intento de identificación se vuelve infructuoso.
Pero, ¿Es posible que una red generativa antagónica copie el tono y la forma de hablar de una persona? Es posible, sí. Y además, lo hace muy bien.
La inteligencia artificial solo debe tomar un fragmento de voz para analizarlo y extraer expresiones, cadencias, tonos e inflexiones de la voz de la víctima. ¿Cómo lo consigue? Muy fácil. Basta una pequeña búsqueda en redes sociales para dar con este recurso.
Hábitos de Seguridad Informática para protegerse
Si bien la Inteligencia Artificial es muy capaz, puede fallar en ocasiones. Es por eso, que ante un llamado de este tipo se debe optar, primeramente, por mantener la calma.
Si usted conoce a la persona, podrá identificar fácilmente cualquier inflexión extraña en su tono de voz, o quizás modismos que no haya utilizado antes.
Los especialistas recomiendan seguir una serie de recomendaciones para evitar ser víctima de esta estafa:
- Tomate unos segundos antes de responder. Los ciberdelincuentes aprovechan los estados emocionales fuertes e intensos provocados por la urgencia y el miedo.
- Active la autenticidad de dos factores. Tanto en redes sociales como en plataformas digitales.
- Lee con atención cada correo electrónico que recibas. Incluso los que parecen enviados por organismos gubernamentales o instituciones financieras.
- Revisar los enlaces antes de hacer clic. También deberás asegurarte de que el sitio de la página web en la que te encuentres sea realmente el oficial. Mantente atento a cualquier cambio de diseño extraño o errores de ortografía.