"لا يفل الذكاء الاصطناعي إلا الذكاء الاصطناعي"، هذا هو الأمل الذي يعلّقه خبراء أمن المعلومات في محاصرة سيل الجرائم المتوقّع أن تسبّبها برامج هذه التقنية القادرة على استنساخ الأصوات والصور دون إذن أصحابها، أو ما يسمّى بـ"التزييف العميق".
المخاوف المُثارة مؤخّرا تتعلّق بأنه يُمكن للمجرمين استنساخ الأصوات والصور، ونسب كلام وسلوكيات لأصحابها هم أبرياء منها، واستخدامها في ابتزازهم أو ابتزاز أقاربهم.
يكمن الخطر الأبرز في قدرة هذه التقنية على تبديد الخط الفاصل بين الحقيقي والزائف تقريبا، وتزويد المجرمين بأدوات فعالة وغير مكلّفة.
يتفق خبير التحول الرقمي وأمن المعلومات، زياد عبد التواب، في تعليقه لموقع "سكاي نيوز عربية"، في أن تطبيقات الذكاء الاصطناعي قادرة على زيادة معدل الجريمة والاحتيال، لكنه أيضا يرى إمكان مواجهة ذلك بتطبيقات ذكاء اصطناعي أيضا، قائلا: "لا يفل الذكاء الاصطناعي إلا الذكاء الاصطناعي".
تطبيقات مضادة
يوضح عبد التواب: "بالطبع استنساخ الأصوات هو إحدى الإمكانيات التي تتيحها تطبيقات الذكاء الاصطناعي، والأمر لا يتعلق فقط باستنساخ الأصوات، لكنه يمكن تزييف الصور أو الفيديوهات عبر ما يعرف بتقنية التزييف العميق.
زيادة معدل الجرائم بسبب تقنيات الذكاء الاصطناعي "لم تعد مجرد مخاوف، لكنها أصبحت واقعا، حيث إن مكتب التحقيقات الفيدرالية أكد زيادة معدل الجرائم في الولايات المتحدة التي تتم باستخدام التزييف العميق بنسبة 322 بالمئة من فبراير 2022 إلى فبراير 2023، حسب خبير أمن المعلومات.
لكن في نفس الوقت، يلفت إلى أنه بات من الممكن إحالة مقاطع التزييف العميق إلى خبراء لاكتشاف المقاطع المستنسخة من خلال تطبيقات مضادة في الذكاء الاصطناعي.
على هذا، ينصح عبدالتواب أي متضرّر من هذه الجرائم بعدم الذعر أو الخضوع للابتزاز، بل أن يلجأ إلى الجهات المختصّة بالتحقيق في الجرائم السيبرانية لفحص واكتشاف المقاطع المزيفة.
يُطمئن المتضررين بأنه "وإن كانت توجد صعوبة في التمييز بين الأصوات الحقيقية والمستنسخة، لكن الصعوبة لا تعني الاستحالة؛ فكلما تطوّرت تقنيات الذكاء الاصطناعي يمكن تطوير تقنيات أخرى تعمل بواسطة الذكاء الاصطناعي لكشف الاستنساخ والتزييف".
يضرب عبدالتواب مثلا، بأنه حاليا تتوفر تطبيقات لكشف المحتوى المكتوب من خلال تطبيق "شات جي بي تي"، وتحديد النسبة المئوية لهذا المحتوى، وكلما تطور التطبيق في صياغة العبارات والمحتوى ستتطوّر التقنيات المرتبطة بكشفه.
الأمر مشابه لاستخدام تقنيات الذكاء الاصطناعي في شن هجمات سيبرانية، وفي هذه الحالة تتم المواجهة بأنظمة دفاعية تعمل من خلال نفس التقنيات.
الوعي المنقذ الأول
لكن ليس من الملائم الانتظار حتى تقع الجريمة، لكن يلزم توعية المستخدمين بعدم الثقة في أي مقطع مصور أو صوتي، أو حتى مكالمة هاتفية بصوت شخص يعرفه؛ لأنها ربما تكون مختلقة، كما ينبه المتحدّث ذاته.
وسط مطالبات لحوحة بوضع قوانين لأخلاقيات استخدام الذكاء الاصطناعي، أقرّ نواب في الاتحاد الأوروبي تعديلات على مسوّدة لقواعد هذه التقنية، ومتوقع أن يصدر أول قانون نهاية العام الجاري أو خلال العام المقبل. حسب سكاي نيوز
استطلاع صادم.. الذكاء الاصطناعي سيدمر العالم في هذا التوقيت
يشعر العديد من كبار رجال الأعمال بقلق بالغ من أن الذكاء الاصطناعي يمكن أن يشكل تهديدًا وجوديًا للبشرية في المستقبل غير البعيد. في استطلاع حديث، قال 42% من الرؤساء التنفيذيين في قمة الرؤساء التنفيذيين في جامعة ييل هذا الأسبوع، إن الذكاء الاصطناعي لديه القدرة على تدمير البشرية من 5 إلى 10 سنوات من الآن.
وتعليقًا على نتائج الاستطلاع، قال جيفري سونينفيلد الأستاذ بجامعة ييل، "إنه أمر مظلمة ومثير للقلق"، حيث وجد الاستطلاع، الذي تم إجراؤه في حدث افتراضي أقامه معهد القيادة التنفيذية، القليل من الإجماع حول المخاطر والفرص المرتبطة بالذكاء الاصطناعي.
وشمل الاستطلاع ردودًا من 119 من الرؤساء التنفيذيين من قطاع عريض من الأعمال، بما في ذلك الرئيس التنفيذي لشركة "وول مارت"، دوغ ماكميليون، والرئيس التنفيذي لشركة "كوكا كولا"، جيمس كوينسي، وقادة شركات تكنولوجيا المعلومات مثل "زيروكس" و"زووم" بالإضافة إلى الرؤساء التنفيذيين من الأدوية والإعلام والتصنيع.
وفيما أظهر قادة الأعمال انقسامًا حادًا حول مدى خطورة الذكاء الاصطناعي على الحضارة، قال 34% من الرؤساء التنفيذيين إن الذكاء الاصطناعي يمكن أن يدمر البشرية في غضون عشر سنوات، بينما قال 8% إن ذلك قد يحدث في غضون خمس سنوات، فيما أكد 58% من الرؤساء التنفيذيين أن هذا لن يحدث أبدًا وهم "غير قلقين".
في سؤال منفصل، وجد الاستطلاع، أن 42% من الرؤساء التنفيذيين الذين شملهم الاستطلاع يقولون إن الكارثة المحتملة للذكاء الاصطناعي مبالغ فيها، بينما قال 58% إنها ليست مبالغة في تقديرها.
وتأتي هذه النتائج بعد أسابيع فقط من توقيع العشرات من قادة صناعة الذكاء الاصطناعي والأكاديميين وحتى بعض المشاهير بيانًا يحذرون فيه من خطر "الانقراض" من الذكاء الاصطناعي. هذا البيان، الذي وقعه الرئيس التنفيذي لشركة "أوبن إي إل"، سام ألتمان، وجيفري هينتون الذي حمل لقب "الأب الروحي للذكاء الاصطناعي" وكبار المديرين التنفيذيين من "غوغل" و"مايكروسوفت"، دعا المجتمع إلى اتخاذ خطوات للحماية من مخاطر الذكاء الاصطناعي.
وجاء في البيان أن "التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية".
ومؤخراً، قرر الأب الروحي للذكاء الاصطناعي "هينتون"، دق ناقوس الخطر بشأن التكنولوجيا التي ساعد في تطويرها بعد القلق بشأن مدى ذكائها. وقال: "أنا مجرد عالم أدرك فجأة أن هذه الأشياء تزداد ذكاءً منا... أريد أن أطلق صافرة نوعا ما وأقول إننا يجب أن نقلق بجدية بشأن كيفية منع هذه الأشياء من السيطرة علينا".
وأوضح، أنه إذا أصبح الذكاء الاصطناعي "أكثر ذكاءً منا ، فسيكون جيدًا جدًا في التلاعب"، بما في ذلك "الالتفاف حول القيود التي وضعناها عليه".
وبينما يناقش قادة الأعمال مخاطر الذكاء الاصطناعي، أظهر الرؤساء التنفيذيون الذين شملهم الاستطلاع من قبل جامعة ييل درجة من الاتفاق حول المكافآت. حيث قال 13% فقط من الرؤساء التنفيذيين، إن الفرصة المحتملة للذكاء الاصطناعي مبالغ فيها، بينما قال 87% إنها ليست كذلك.
وفق شبكة "سي إن إن"، أشار الرؤساء التنفيذيون، إلى أن الذكاء الاصطناعي سيكون له الأثر الأكبر في إحداث تحول في ثلاث صناعات رئيسية، ورأى 48% من المستطلعين أن القطاع الأول هو الرعاية الصحية، بينما يرى 35% من رؤساء الشركات أن قطاع الخدمات المهنية وتكنولوجيا المعلومات يأتي في المركز الثاني، فيما قال 11% منهم أن القطاع الثالث هو الوسائط الرقمية.
ونظرًا لأن البعض داخل وخارج عالم التكنولوجيا يناقشون سيناريوهات يوم القيامة حول الذكاء الاصطناعي، فمن المحتمل أن تكون هناك تأثيرات فورية أكثر ، بما في ذلك مخاطر المعلومات المضللة وفقدان الوظائف. حسب العربية
اضافةتعليق
التعليقات