M谩s

    C贸mo proteger su negocio de los deepfakes generados por IA

    - Advertisement -

    Recientemente, los ciberdelincuentes utilizaron v铆deos 芦deepfake禄 de los ejecutivos de una empresa multinacional para convencer a los empleados de la empresa con sede en Hong Kong de que transfirieran 25,6 millones de d贸lares. Bas谩ndose en una videoconferencia con m煤ltiples deepfakes, los empleados creyeron que su director financiero con sede en el Reino Unido hab铆a solicitado que se transfirieran los fondos. Seg煤n los informes, la polic铆a arrest贸 a seis personas en relaci贸n con la estafa. Este uso de la tecnolog铆a de inteligencia artificial es peligroso y manipulador. Sin directrices y marcos adecuados, m谩s organizaciones corren el riesgo de ser v铆ctimas de estafas de IA como los deepfakes.

    Deepfakes 101 y su creciente amenaza

    Los deepfakes son formas de medios alterados digitalmente, incluidas fotograf铆as, v铆deos y clips de audio, que parecen representar a una persona real. Se crean entrenando un sistema de inteligencia artificial con clips reales que muestran a una persona y luego usando ese sistema de inteligencia artificial para generar nuevos medios realistas (aunque no aut茅nticos). El uso de deepfake es cada vez m谩s com煤n. El caso de Hong Kong fue el 煤ltimo de una serie de incidentes deepfake de alto perfil en las 煤ltimas semanas. En las redes sociales circularon im谩genes falsas y expl铆citas de Taylor Swift, el partido pol铆tico de un candidato electoral encarcelado en Pakist谩n utiliz贸 un v铆deo falso de 茅l para pronunciar un discurso y un ‘clon de voz’ falso del presidente Biden llam贸 a los votantes de las primarias para decirles que no lo hicieran. votar.

    Los casos menos destacados de uso de deepfake por parte de ciberdelincuentes tambi茅n han ido aumentando tanto en escala como en sofisticaci贸n. En el sector bancario, los ciberdelincuentes est谩n intentando superar la autenticaci贸n de voz utilizando clones de voz de personas para hacerse pasar por usuarios y obtener acceso a sus fondos. Los bancos han respondido mejorando sus capacidades para identificar el uso de deepfake y aumentando los requisitos de autenticaci贸n.

    Los ciberdelincuentes tambi茅n se han dirigido a personas con ataques de 芦phishing禄 que utilizan deepfakes. Un enfoque com煤n es enga帽ar a los familiares y amigos de una persona mediante el uso de un clon de voz para hacerse pasar por alguien en una llamada telef贸nica y solicitar que se transfieran fondos a una cuenta de terceros. El a帽o pasado, una encuesta realizada por McAfee encontr贸 que el 70% de las personas encuestadas no estaban seguras de poder distinguir entre personas y sus clones de voz y que casi la mitad de las personas encuestadas responder铆an a solicitudes de fondos si el familiar o amigo que realizaba la llamada reclamaba haber sido asaltado o haber sufrido un accidente automovil铆stico.

    鉂 Tambi茅n te interesa:China planea perturbar las elecciones con desinformaci贸n generada por IAChina planea perturbar las elecciones con desinformaci贸n generada por IA

    Los ciberdelincuentes tambi茅n han llamado a personas que se hacen pasar por autoridades fiscales, bancos, proveedores de atenci贸n m茅dica y aseguradoras en un esfuerzo por obtener detalles financieros y personales.

    En febrero, la Comisi贸n Federal de Comunicaciones dictamin贸 que las llamadas telef贸nicas que utilizan voces humanas generadas por IA son ilegales a menos que se realicen con el consentimiento previo y expreso de la parte llamada. La Comisi贸n Federal de Comercio tambi茅n finaliz贸 una norma que proh铆be la suplantaci贸n de organizaciones y empresas gubernamentales por parte de la IA y propuso una norma similar que proh铆be la suplantaci贸n de individuos por parte de la IA. Esto se suma a una lista cada vez mayor de medidas legales y regulatorias que se est谩n implementando en todo el mundo para combatir los deepfakes.

    Mantente protegido contra los deepfakes

    Para proteger a los empleados y la reputaci贸n de la marca contra los deepfakes, los l铆deres deben seguir los siguientes pasos:

  • Educar a los empleados de forma continua, tanto sobre las estafas basadas en la IA como, en t茅rminos m谩s generales, sobre las nuevas capacidades de la IA y sus riesgos.
  • Actualizar la gu铆a de phishing para incluir amenazas deepfake. Muchas empresas ya han informado a sus empleados sobre los correos electr贸nicos de phishing y han instado a tener precauci贸n al recibir solicitudes sospechosas a trav茅s de correos electr贸nicos no solicitados. Dichas directrices sobre phishing deber铆an incorporar estafas deepfake de IA y tener en cuenta que pueden utilizar no s贸lo texto y correo electr贸nico, sino tambi茅n v铆deo, im谩genes y audio.
  • Aumentar o calibrar adecuadamente la autenticaci贸n de empleados, socios comerciales y clientes. Por ejemplo, utilizar m谩s de un modo de autenticaci贸n seg煤n la sensibilidad y el riesgo de una decisi贸n o transacci贸n.
  • Considere los impactos de los deepfakes en los activos de la empresa, como logotipos, personajes publicitarios y campa帽as publicitarias. Estos activos de la empresa pueden replicarse f谩cilmente mediante deepfakes y difundirse r谩pidamente a trav茅s de las redes sociales y otros canales de Internet. Considere c贸mo su empresa mitigar谩 estos riesgos y educar谩 a las partes interesadas.
  • Espere m谩s y mejores deepfakesdado el ritmo de mejora de la IA generativa, la cantidad de procesos electorales importantes en curso en 2024 y la facilidad con la que los deepfakes pueden propagarse entre personas y a trav茅s de fronteras.
  • Aunque los deepfakes son un problema de ciberseguridad, las empresas tambi茅n deber铆an considerarlos como fen贸menos complejos y emergentes con repercusiones m谩s amplias. Un enfoque proactivo y reflexivo para abordar los deepfakes puede ayudar a educar a las partes interesadas y garantizar que las medidas para combatirlos sean responsables, proporcionadas y apropiadas.

    鉂 Tambi茅n te interesa:Por qu茅 la calidad de los datos es fundamental para el marketing en la era de GenAIPor qu茅 la calidad de los datos es fundamental para el marketing en la era de GenAI

    (Foto por Markus Spiske)

    Ver tambi茅n: Reino Unido y EE. UU. firman un pacto para desarrollar pruebas de seguridad de IA

    驴Quiere aprender m谩s sobre IA y big data de la mano de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data que tendr谩 lugar en Amsterdam, California y Londres. El evento integral comparte ubicaci贸n con otros eventos importantes, incluidos bloquex, Semana de la Transformaci贸n Digitaly Exposici贸n de seguridad cibern茅tica y nube.
    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    Etiquetas: ai, inteligencia artificial, deepfakes, empresa, estafas

    鉂 Tambi茅n te interesa:ML Olympiad regresa con m谩s de 20 desaf铆osML Olympiad regresa con m谩s de 20 desaf铆os

    Fuente: C贸mo proteger su negocio de los deepfakes generados por IA

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.