Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the all-in-one-seo-pack domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/ecotnvi/www/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the wpforms-lite domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/ecotnvi/www/wp-includes/functions.php on line 6114

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the advanced-ads domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/ecotnvi/www/wp-includes/functions.php on line 6114
Avant et après : De quelle manière des vocal, basés sur l'IA, peuvent être utilisés par les cybercriminels pour nous tromper ?
Breaking News
Home / Accueil / Avant et après : De quelle manière des outils de deepfake vocal, basés sur l’IA, peuvent être utilisés par les cybercriminels pour nous tromper ?

Avant et après : De quelle manière des outils de deepfake vocal, basés sur l’IA, peuvent être utilisés par les cybercriminels pour nous tromper ?

Les Beatles ont une fois de plus captivé des millions de fans à travers le monde en créant une nouvelle chanson grâce à l’intelligence artificielle (IA). Cette mélodie a été formée à partir de fragments d’enregistrements anciens, minutieusement remasterisés par l’IA. Ce chef-d’œuvre tout frais du légendaire groupe de rock a suscité un vif engouement mondial, mais il soulève également une problématique complexe : l’aptitude de l’IA à reproduire des voix ou à générer des images via les deepfakes.

Actuellement, les fraudes par deepfakes de voix ou d’images demeurent encore très peu communes étant donné que les outils disponibles pour les créer ne sont pas encore largement répandus, ni suffisamment aboutis. Cependant, leur potentiel d’utilisation frauduleuse reste alarmant, surtout étant donné la constante évolution de la technologie associée.

Quelles sont les réelles capacités du deepfake vocal ?

OpenAI a récemment démontré que l’un de ses modèles d’API audio pouvait générer de la parole humaine à partir de simples textes. Ce logiciel d’OpenAI est même considéré comme étant le plus proche de la véritable parole humaine à ce jour.

Dans un avenir très proche, de tels modèles pourraient rapidement devenir des outils privilégiés entre les mains de cybercriminels. L’API audio permet de convertir un texte en parole, avec plusieurs options de voix proposées aux utilisateurs. Bien que le modèle actuel d’OpenAI ne puisse pas encore être utilisé pour créer des deepfakes vocaux convaincants, il témoigne de la rapide avancée des technologies de synthèse vocale.

Actuellement, il existe peu d’appareils capables de produire des deepfakes vocaux d’une qualité indiscernable de la véritable voix humaine. Cependant, ces derniers mois ont vu de plus en plus d’outils basés sur l’IA démontrer leur capacité à générer des voix incroyablement proches de la réalité. Autrefois réservée aux programmeurs expérimentés, cette tâche est désormais intuitive et accessible à tous. Dans un futur proche, on peut s’attendre à des modèles produisant des résultats d’une qualité remarquable.

La fraude par intelligence artificielle reste encore rare, bien que quelques cas « réussis » aient déjà été signalés. En octobre dernier, par exemple, le capital-risqueur américain Tim Draper avait averti ses abonnés sur Twitter que des escrocs utilisaient sa voix sans son consentement pour commettre des fraudes. Tim a souligné que les demandes d’argent formulées avec sa voix étaient en réalité le résultat d’une intelligence artificielle.

Comment se prémunir contre de tels risques ?

Jusqu’à présent, les voix deepfake ne sont peut-être pas encore perçues comme de réelles menaces dans le cyberespace. En effet, les cas où elles sont utilisées à des fins malveillantes restent rares pour l’instant.

Cependant, cela ne signifie pas qu’il ne soit pas important de prendre des mesures préventives dès maintenant. Une vigilance particulière est essentielle lors des conversations téléphoniques. Si la voix de votre interlocuteur est de qualité médiocre, comporte des bruits parasites, ou semble artificielle voire monotone, il est peut-être temps d’être prudent.

Un moyen pour tester l’authenticité de votre interlocuteur est de poser des questions atypiques. Par exemple, une question sur sa couleur préférée déstabiliserait une voix générée artificiellement, car ce n’est pas une requête habituelle des fraudeurs. Même si l’attaquant tente de répondre en tapant manuellement sa couleur préférée pour simuler une réponse vocale, le délai de réponse révélera la supercherie.

Opter pour une solution de sécurité fiable et exhaustive constitue une autre mesure sûre. Bien qu’elles ne puissent pas détecter à 100 % les voix deepfake, ces solutions aident à éviter les sites douteux, les paiements risqués, les téléchargements de logiciels malveillants, et à protéger les navigateurs ainsi que les fichiers contre d’éventuelles contaminations.

« Actuellement, il est important de ne pas surestimer la menace des voix deepfake ou de commencer à les voir là où elles ne sont pas. Bien que la technologie actuelle ne puisse pas encore produire des voix suffisamment réalistes pour nous tromper facilement, il faut tout de même garder à l’esprit que la menace vocale est bien réelle et que la fraude par deepfake deviendra bientôt une réalité, » explique Dmitry Anikin, Data Scientist Senior chez Kaspersky.

Pour en savoir davantage sur le deepfake vocal, vous pouvez consulter ce lien.

À propos de Kaspersky

Kaspersky est une société internationale de cybersécurité et de protection de la vie privée fondée en 1997. L’expertise de Kaspersky en matière de sécurité et de veille sur les menaces se transforme constamment en solutions et services de sécurité innovants pour protéger les entreprises, les infrastructures critiques, les gouvernements et les consommateurs du monde entier. Le portefeuille de sécurité complet de l’entreprise comprend une protection de pointe des points d’extrémité et un certain nombre de solutions et de services de sécurité spécialisés pour lutter contre les menaces numériques sophistiquées et en constante évolution. Plus de 400 millions d’utilisateurs sont protégés par les technologies Kaspersky et nous aidons 240 000 entreprises clientes à protéger ce qui compte le plus pour elles. Pour en savoir plus, consultez le site www.kaspersky.com.

About Communiqué

Check Also

BCT : 121,2 millions d’opérations effectuées par cartes bancaires au 30 septembre 2024

Environ 121,2 millions d’opérations ont été effectuées par cartes bancaires, en Tunisie, au 30 septembre 2024, mobilisant une enveloppe globale de l’ordre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

error: Content is protected !!