
ما لبث الخبراء يحذرون من الذكاء الاصطناعي، حتى خرجت شركات ناشئة تقدم لزبائنها خدمة التواصل مع الموتى عن طريق التفاعل الافتراضي، من خلال إعادة تحريك صور لأشخاص بعد وفاتهم والتحكم في حركات وجوههم على شكل مقاطع فيديو. ويعتبر البعض هذه التقنيات المبتكرة أمرا غير أخلاقي وغير قانوني، حيث إنها تعزز الجريمة والابتزاز. ويسعى الخبراء إلى تقنين التعامل مع الذكاء الاصطناعي، الذي قد يؤدي إلى تدمير البشرية وخطره يضاهي خطر القنبلة النووية.
سهيلة التاور
بدأت شركات ناشئة في التعامل مع الذكاء الاصطناعي بشكل مختلف تماما، حيث أتيحت لزبائنها إمكانية البقاء على اتصال افتراضي مع أشخاص فارقوا الحياة بالاعتماد على الذكاء الاصطناعي، في مجال لا يزال يلفه غموض كبير ويثير تساؤلات كثيرة.
ووفق دراسة لكلية أستون للقانون بجامعة كوينز بلفاست، وكلية القانون بجامعة نيوكاسل البريطانية، يمكن استخدام ما يسمى «الشبح الآلي» (غوست بوت) لإعادة تكوين شكل الموتى وأصواتهم وسماتهم بتقنيات «الهولوغرام» و«التزييف العميق» وغيرها.
البداية كانت مع لي بيونغ هوال، الكوري الجنوبي (76 عامًا)، الذي لجأ إلى شركة «ديب براين إي آي» التي سجلت مقاطع مصورة له على مدى ساعات لإنجاز نسخة رقمية عنه يمكنها الرد على أسئلة بعد علمه بإصابته بسرطان في مراحله النهائية. وفي فيديو ترويجي ظهرت ريو سون يون وهي تجلس أمام ميكروفون وشاشة عملاقة يظهر فيها زوجها بعد وفاته ببضعة أشهر، وهو يقول لها «عزيزتي. هذا أنا»، لتنهمر دموعها وتبدأ ما يشبه الحوار معه.
ويوضح رئيس قسم التطوير في «ديب براين إي آي»، جوزيف مورفي، تفاصيل بشأن البرنامج المسمى «ري ميموري» قائلًا «نحن لا ننشئ محتوى جديدًا»، أي أن هذه التكنولوجيا لا تولّد عبارات لم يكن المتوفى لينطق بها أو يكتبها خلال حياته.
المبدأ نفسه تعتمده شركة «ستوري فايل»، التي استعانت بالممثل ويليام شاتنر (92 عامًا) ليكون وجهًا ترويجيًّا على موقعها.
يقول ستيفن سميث، رئيس هذه الخدمة التي يستخدمها الآلاف، بحسب الشركة، «نهجنا يقوم على الاحتفاظ بالسحر الخاص بهذا الشخص لأطول فترة ممكنة» خلال حياته «ثم استخدام الذكاء الاصطناعي».
وتسعى شركة «سومنيوم سبايس»، ومقرها لندن، للاعتماد على «الميتافيرس» في صنع نسخ افتراضية عن المستخدمين خلال حياتهم، سيكون لهم وجود خاص، من دون تدخل بشري، في هذا العالم الموازي بعد وفاتهم.
ويقر المدير العام للشركة، أرتور سيشوف، بأن هذه الخدمة «ليست موجَّهة إلى الجميع بالطبع»، وذلك في مقطع فيديو نُشر على «يوتيوب» عن منتج الشركة المسمى «ليف فوريفر» (العيش أبدًا)، والذي أعلنت عن التوجه لإطلاقه نهاية العام.
ويضيف «هل أريد أن ألتقي جدّي بواسطة الذكاء الاصطناعي؟ سيكون ذلك متاحًا لمن يريد». والسؤال الذي يُطرح هنا هو إلى أي مدى يمكن القبول بوجود افتراضي لشخص محبوب متوفى يمكنه، بفضل الذكاء الاصطناعي التوليدي، قول أشياء لم يقلها قبل وفاته؟
ويقر جوزيف مورفي بأن «التحديات فلسفية وليست فنية».
وترى كاندي كان، الأستاذة في جامعة بايلور، التي تجري حاليا بحثًا في هذا الموضوع في كوريا الجنوبية، أن «التفاعل مع نسخة بالذكاء الاصطناعي لشخص من أجل عيش مرحلة الحداد يمكن أن يساعد على المضي قدمًا مع الحد الأدنى من الصدمات، سيما بمساعدة شخص محترف».
تجارب سابقة
في بداية أبريل الماضي، أثار رائد الأعمال والمهندس، براتيك ديساي، ضجة من خلال دعوته الأشخاص إلى «البدء بالتقاط تسجيلات» بالصوت أو الفيديو «للوالدين وكبار السن والأقارب»، وقال إنه اعتباراً من «نهاية هذا العام»، سيكون ممكناً إنشاء شخصية افتراضية بتقنية التجسيد الرمزي «أفاتار» لشخص متوفى، موضحاً أنه يعمل على مشروع في هذا الاتجاه.
وأثارت الرسالة، التي نشرها ديساي في «تويتر»، زوبعة من الانتقادات، ما دفعه إلى التأكيد، بعد بضعة أيام، أنه ليس «نابش قبور»، وقال: «هذه مسألة شخصية للغاية، وأنا أعتذر بصدق لأني آذيت أشخاصاً». ومن جهته، أوضح سميث، بشأن «ستوري فايل»: «هذا مجال حساس أخلاقياً، ونحن نتخذ احتياطات كبيرة».
ومنذ سنوات بدأت تنتشر خدمات مشابهة، ففي العام 2015 أنشأت المهندسة الروسية، يوجينيا كيودا، المقيمة في كاليفورنيا «روبوت محادثة» سمته «رومان» على اسم صديقها الذي قتل في حادث سيارة، ومدته بآلاف الرسائل القصيرة التي أرسلها لأقاربه، بهدف إنشاء ما يشبه النسخة الافتراضية عنه.
ثم أطلقت كيودا، عام 2017، خدمة «ريبليكا» التي تقدم بعض برامج الدردشة الشخصية الأكثر تطوراً في السوق، والتي يمضي بعض المستخدمين ساعات عديدة في التحدث معها يومياً، لكن «ريبليكا ليست منصة مصممة لإعادة استحضار شخص عزيز»، حسب تحذير ناطقة باسم الشركة.
تاريخ «الديب فيك»
على مدار السنوات القليلة الماضية، شهد عالم التكنولوجيا ارتفاعا سريعا في التقنيات التي تستخدم خوارزميات الذكاء الاصطناعي، وبالتحديد تقنية «التعلم الآلي»، لتحليل لقطات من أناس حقيقيين، ومن ثم نشر مقاطع فيديو مقنعة حول قيامهم بأشياء لم يفعلوها أو قول أشياء لم يقولوها قط.
ويُعدّ برنامج «فيديو ريرايت»، الذي صدرَ في عام 1997، أوّل معالم هذه التقنية، حيثُ قام بتعديل فيديو لشخص يتحدث في موضوع مُعيّن إلى فيديو للشخص نفسه يتحدث في موضوع آخر من خلال استغلال الكلمات التي نطقها ذاك الشخص ومُحاولة ترتيبها في سياق مختلف لتكوين جمل جديدة لم يقلها الشخص في الفيديو أصلا.
أما مصطلح «التزييف العميق»، أو «ديب فيك» نفسه، فظهر في نهاية عام 2017 من أحد مستخدمي «ريديت»، والذي سمى نفسه «ديب فيكس»، قام، مع آخرين، بمشاركة فيديوهات إباحية مزيفة كانوا قد صنعوها لمشاهير، حيث قاموا، مثلا، بتحميل فيديوهات يظهر فيها ممثلون إباحيون حقيقيون ثم استبدلوا وجه الممثل الإباحي بوجه ممثل أمريكي مشهور.
وحققت تلك الفيديوهات نسب مشاهدة عالية كما تم تداولها على نطاق كبير في مواقع التواصل وكان من الصعب اكتشاف أنها مزيفة، خاصة الفيديو المزيف للممثل الأمريكي نيكولاس كيج الذي كان واقعيا وصدقه الكثيرون.
استخدامات إجرامية
بحلول فبراير 2018، وبعد أن كثر الحديث حول هذه التقنية، قام موقع «ريديت» بحظر المستخدم «ديب فيكس» بدعوى نشره لمقاطع فيديو إباحية مزيّفة، كما قامت باقي المواقع بحظر كل من يروج لهذه التقنية، ومع ذلك لا تزال هناك مجتمعات أخرى على الإنترنت، بما في ذلك مجتمعات «ريديت»، تعمل على مشاركة الفيديوهات المصنوعة بهذه التقنية، بل يقوم بعض مستخدمي «ريديت» بنشر فيديوهات وصور مزيّفة لعدد من المشاهير والسياسيين لا تمّت للحقيقة بصلة، في حين تواصل المجتمعات الأخرى على الإنترنت مشاركة هذه المواد بعلم أو دون علم.
ووفقا لتقرير صادر عن جامعة لندن، فإن الـ«ديب فيك» أو «التزييف العميق» هي أكثر تقنيات الذكاء الاصطناعي استخداما في الجريمة والإرهاب.
وحدد فريق البحث، التابع لجامعة لندن، عشرين طريقة مختلفة يمكن أن يستخدم بها المجرمون الذكاء الاصطناعي مستقبلا، وأسندوا لـ31 خبيرا تقنيّا تصنيف تلك الطرق حسب المخاطر بناء على إمكانية الضرر والأموال التي يمكنهم كسبها وسهولة استخدامها ومدى صعوبة إيقافها.
واستناداً إلى دراسة أجرتها كلية أستون للقانون بجامعة كوينز بلفاست وكلية القانون بجامعة نيوكاسل البريطانية، تُظهر تقنيات الذكاء الاصطناعي المبتكرة قدرتها على استنساخ صور رقمية للأشخاص المتوفين، ما أثار قلقاً متزايداً لدى الناس بشأن سمعتهم وشخصياتهم حتى بعد وفاتهم.
أمر غير قانوني
من الناحية القانونية، يُعد هذا الأمر خطيراً وقد يهدد سمعة الأموات ويفتح الباب لاتهامهم بأفعال لم يقوموا بها، وهو ما يعرض أسرهم للابتزاز ومخاطر كبيرة. ووصفت الأمم المتحدة هذا الأمر بأنه «خطر وجودي».
ووفقاً للخبراء، أدت هذه التقنية بالفعل إلى زيادة كبيرة في جرائم الابتزاز الجنسي في الولايات المتحدة بنسبة تقترب من 322 بالمئة في فبراير 2023 مقارنةً بالعام السابق، نتيجة استخدام التزييف العميق.
ومن المثال الحالي على هذه التقنية، استنساخ صوت سيدة الغناء العربي أم كلثوم، ما دفع أسرتها للنظر في التصرف القانوني لمنع استخدام صوتها دون إذن.
وعلى الرغم من ذلك، لا توجد، حتى الآن، قوانين محددة للذكاء الاصطناعي، ولكن من المتوقع أن يتم تبني قوانين من قبل الاتحاد الأوروبي بحلول نهاية هذا العام أو بداية العام المقبل.
وفي ما يتعلق بالقوانين المأمولة، يجب أن تنظم حق استخدام أشكال وأصوات الأموات وتحمي حقوقها. ويجب أن يُسمح للأفراد بتضمين بنود في وصيتهم، قبل وفاتهم، تحدد استخدام أصواتهم وأشكالهم وتسمح لعائلاتهم بالسماح ببيعها أو استخدامها، وتحدد ما إذا كان يجب أن تكون متاحةً للجميع أو مقيدةً ببعض الضوابط أو ممنوعة تماماً.
وحذر الأمين العام للأمم المتحدة، أنطونيو غوتيريش، سابقاً، من مخاطر تقنيات الذكاء الاصطناعي، ووصفها بأنها «خطر وجودي» يضاهي خطر الحرب النووية. وقدمت الأمم المتحدة مقترحات لكيفية التعامل مع الذكاء الاصطناعي، بما في ذلك إنشاء هيئة استشارية عالية المستوى للتنظيم والمراقبة، تشبه الهيئة الدولية للطاقة الذرية، بهدف مواجهة هذا الخطر الكبير.





