الذكاء الإصطناعي

تزييف الصوت بالذكاء الاصطناعي.. نصائح تحميك من الاحتيال

عليك الحذر جيدا عند استقبال الاتصالات الهاتفية الطارئة، خاصةً التي يُطلب منك فيها تحويل أموال، أو الإدلاء بمعلومات حسّاسة، حتى لو كان الصوت كصوت أقاربك أو أصدقائك، ففي عصر الذكاء الاصطناعي بات التزييف يحيط بالناس في كل أمورهم.

وخلال الآونة الأخيرة، انتشر نوع من الاحتيال بواسطة تطبيقات الذكاء الاصطناعي يسمّى “احتيال التزييف” أو “التلاعب الصوتي“، لكن يُمكنك النجاة منه لو انتبهت لهذه المستجدات، واتبعت النصائح التي يُدلي بها خبيران في الأمن السيبراني وتكنولوجيا المعلومات لموقع “سكاي نيوز عربية”.

كانت شركة “أوبن إيه آي“، المتخصصة في الذكاء الاصطناعي التوليدي، ومبتكرة برنامج المحادثة الشهير “تشات جي بي تي“، عرضت، مارس الماضي، أداة لاستنساخ الصوت سيكون استخدامها محدودا لتفادي عمليات الاحتيال.

والأداة التي سُمّيت بـ”فويس إنجين” أو “محرك الصوت” قادرة على إعادة إنتاج صوت شخص من خلال عينة صوتية مدتها 15 ثانية، حسب ما ذكر بيان لـ”أوبن إيه آي” تطرّق إلى نتائج اختبار أجري على نطاق صغير.

وأضاف البيان: “ندرك أن القدرة على توليد أصوات تشبه أصوات البشر خطوة تنطوي على مخاطر كبيرة، خصوصا في عام الانتخابات هذا”، وأنه لذلك: “نعمل مع شركاء أميركيين ودوليين من حكومات ووسائل إعلام ومجالات الترفيه والتعليم والمجتمع المدني وقطاعات أخرى، ونأخذ ملاحظاتهم في الاعتبار

تلاعُب وفقد الثقة

وفق خبير الأمن السيبراني وتكنولوجيا المعلومات، محمد خليف، فإنّه بات “مِن السهل جدا” استخدام الذكاء الاصطناعي لإجراء اتصالات هاتفية بأصوات تبدو مألوفة للأشخاص، وهذا يُسمّى بـ”التزييف الصوتي” أو “التلاعب الصوتي”.

وعن طريقة صُنع هذا الصوت المزيّف، يقول خليف إنه يتم ببرامج الذكاء الاصطناعي لتقليد أصوات معروفة أو مأخوذة من وسائل التواصل الاجتماعي.

ومِن الأمور الخطرة التي يُستخدم فيها هذا التزييف، الاحتيال على الضحايا في طلبات مالية عاجلة، بإيهامهم أن المتصل شخص معروف لهم، كما يوضّح خليف، الذي يُحذر من أن هذه الاستخدامات قد تُفقد الأشخاص الثقة في العالم الرقمي؛ ما يؤثّر بالسلب على وتيرة التحوّل الرقمي.

المصدر: سكاي نيوز

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى