علي مرعي*
منذ الإطلاق الرسميّ لتطبيقات توليد النصوص في نهاية العام 2022م، وما تبعه من الانتشار الواسع لبرامج إنشاء الصور والفيديوهات، دخلنا مرحلة جديدة من التاريخ التقنيّ يمكن وصفها بـ«ثورة الذكاء الاصطناعيّ»؛ إذ بات الأخير يولّد النصوص، ويرسم الوجوه، ويُقلّد الأصوات، ويُنتج مقاطع فيديو يصعب تمييزها عن الحقيقة، بل أصبح يشارك في صنع القرار داخل مجالات الإعلام والتعليم والاقتصاد وغيرها.
غير أنّ هذا التطوّر السريع، أفرز جانباً مظلماً أيضاً، تمثّل في تصاعد التضليل الرقميّ وظهور أشكال جديدة من الاحتيال والتلاعب بالعقول عبر محتوى مُقنّع يصعب كشف زيفه.
فكيف يمكن للإنسان العاديّ، أو غير المتخصّص في هذا المجال، أن يكون حذراً لئلّا يقع ضحيّةً للخداع أو التضليل؟
* الذكاء الاصطناعيّ آداة نتحكّم بها
تقنيّاً، الذكاء الاصطناعيّ لا يحمل بطبيعته خيراً ولا شرّاً، بل هو أداة تتحدّد نتائجها وفق نوايا مستخدميها؛ فيمكن له أن يُنقذ الأرواح في غرف العمليّات الجراحيّة، أو يُدمّر سمعة إنسان في لحظات عبر الفضاء الرقميّ. المشكلة لا تكمن في الآلة نفسها، بل في قدرتها الفائقة على محاكاة السلوك البشريّ بدرجةٍ عالية من الإقناع، سواء على مستوى الكلمة أو الصوت أو الصورة، أو حتّى الإحساس والعاطفة.
إنّ منصّات توليد النصوص مثل ChatGPT، وتطبيقات إنشاء الصور مثل Gemini، وأدوات توليد الفيديوهات مثل Veo 3 وغيرها، جعلت التمييز بين المنتج الحقيقيّ والمصطنع تحدّياً كبيراً حتّى أمام الخبراء. يمكن لأيّ مستخدم اليوم، من دون امتلاك خبرةٍ تقنيّةٍ عميقة، أن يُنتج مقطعاً يُظهر أحد الأشخاص أو القادة أو المشاهير وكأنّه يقول أو يفعل شيئاً لم يفعله مطلقاً.
إنّ هذه القدرة المدهشة على صناعة الحقيقة البديلة، هي ما تجعل الذكاء الاصطناعيّ سلاحاً بحدّين: أحدهما يفتح آفاقاً غير مسبوقة للإبداع، والآخر يهدّد الثقة بالواقع ذاته، ويضع الحقيقة في موضع الشكّ الدائم.
* حين يتحوّل الذكاء الاصطناعيّ إلى أداةٍ للخداع والابتزاز
تتعدّد أشكال الاستغلال السلبيّ لقدرات الذكاء الاصطناعيّ، ولم تعد تقتصر على التلاعب بالمعلومات أو الصور العامّة، بل بدأت تمسّ الخصوصيّة الفرديّة لكلّ شخص يحمل هاتفاً أو يشارك صورةً أو يسجّل صوته؛ فالأدوات التي وُلدت في الأصل لخدمة الإبداع والإنتاج الفنيّ، تحوّلت في أيدي بعض الناس إلى وسائل خطيرة لانتحال الهويّات، وتقليد الأصوات، وتركيب الفيديوهات، وابتزاز الآخرين عبر محتوى يصعب كشف زيفه أو تتبّع مصدره.
يمكن تلخيص أبرز مظاهر هذا الاستغلال في ثلاث فئات رئيسة:
1. المحتوى المضلّل وصناعة الصور المزيّفة: أصبحت الوسائط المولّدة بالذكاء الاصطناعيّ وسيلة فعّالة لتشويه السمعة وصنع روايات كاذبة عن أشخاص حقيقيّين. فيكفي أن تُنشر صورة معدّلة على أنّها «دليل»، حتّى تتحوّل إلى أداة تدميرٍ اجتماعيّ ونفسيّ. وفي الآونة الأخيرة، تصاعدت ظاهرة الابتزاز عبر الصور والفيديوهات المفبركة، فاستُخدمت الخوارزميّات الجديدة لتعديل الوجوه وتغيير المشاهد لإقحام أشخاص في محتوى فاضح أو مسيء، ثمّ يُستغلّ هذا المحتوى للضغط عليهم ماديّاً أو معنويّاً. هذه الممارسات لا تنتهك الخصوصيّة فحسب، بل تقوّض الثقة بالنسيج الاجتماعيّ، وتزرع الشكّ في قدرة المجتمع على التفريق بين الحقيقة والصورة المصمَّمة.
2. الاحتيال الماليّ وانتحال الهويّة: شهد العالم خلال العامين الماضيين ارتفاعاً مقلقاً في عمليّات الاحتيال الماليّ القائم على تقليد الأصوات والوجوه، فيكفي أن يجمع أيّ شخص بضع ثوانٍ من صوت الضحيّة أو صورتها، حتّى يتمكّن من إنشاء نسخة رقميّة تتحدّث بلكنة مألوفة، وتطلب تحويلاً ماليّاً عاجلاً، أو معلومات حسّاسة ككلمة المرور أو غيرها، فتُخاطب أحد أقربائه أو زملائه بطلب تحويلٍ عاجل أو معلومات حسّاسة. بهذا المعنى، ألغى الذكاء الاصطناعيّ ما كان يُعرف بـ«الدليل الحسّيّ» الذي يُثبت الهويّة، وجعل الهويّة الرقميّة قابلة للاستنساخ والاختراق بسهولة، ما زاد من تعقيد التحقيقات والإثباتات القانونيّة في هذه القضايا الحديثة.
لعلّ من أبرز الأمثلة على ذلك، ما حدث في الولايات المتّحدة الأمريكيّة في العام 2024م، حين تلقّى رجل في لوس أنجلِس مكالمة طارئة بصوتٍ مطابق تقريباً لصوت ابنه، يزعم أنّه تعرّض لحادثٍ ويحتاج إلى المال فوراً، فاستجاب الوالد على الفور وحوّل نحو 25 ألف دولار أمريكيّ، قبل أن يكتشف لاحقاً أنّ الصوت كان مستنسخاً بواسطة الذكاء الاصطناعيّ.
3. التلاعب بالمعلومات والوعي الجمعيّ: لم يعد التلاعب بالمعلومة مجرّد نشاط بشريّ موجّه، بل أصبح صناعة رقميّة تقودها الخوارزميّات. في الوقت الحاليّ، تتحرّك على الإنترنت آلاف الحسابات المدعومة بأنظمة ذكاء اصطناعيّ قادرة على الكتابة والتعليق والنقاش تلقائيّاً بأسلوب يبدو بشريّاً بالكامل. تُستخدم هذه «الجيوش الرقميّة» لتضخيم الأخبار الزائفة، وصناعة اتّجاهات رأي عام وهميّة (ترندات) تدفع الجمهور إلى تصديق روايات مختلقة أو معاداة أخرى حقيقيّة. والأخطر أنّ تلك الأنظمة لا تكتفي بالنشر، بل تحلّل السلوك النفسيّ للمستخدمين وتستنتج نقاط ضعفهم، لتقدّم محتوى مصمّماً خصّيصاً لإثارة مخاوفهم أو رغباتهم.
بهذه الطريقة، يتحوّل الذكاء الاصطناعيّ إلى أداة تأثير عاطفيّ وذهنيّ دقيقة، قادرة على توجيه الانفعالات الجماعيّة وصياغة المزاج العام كما لو كان استجابة طبيعيّة لحدثٍ حقيقيّ. ففي العراق، مثلاً، مع اقتراب الانتخابات القادمة 2026م، سُجّلت حالات استخدام لأدوات الذكاء الاصطناعيّ في تزوير مستندات رسميّة لوزراء حكومة سابقين، ونشر صور مركّبة مسيئة لرؤسات كُتل نيابيّة، وتقليد أصوات مقرّبين من مرشحين لترويج تهديدات بالاغتيال واتّهامات سلوكيّة مختلفة. وقد لاقت بعض هذه المواد تفاعلاً واسعاً في الشارع العراقيّ، وكادت تُسبّب فتنةً بين الأطراف والجماهير قبل أن يتمّ كشف زيفها وتبيان حقيقتها، ولا تزال تداعياتها وتشكيكاتها موجودة في العقول.
* لكي لا نقع ضحيّة للخداع
تبدأ الوقاية من الذكاء الاصطناعيّ الخادع بالعقل قبل التقنيّة؛ فالحذر لا يعني الخوف، بل الوعي الدائم بخطوات بسيطة تُشكّل درعاً ضدّ التضليل، وهذا يتمثّل في ثلاث خطوات أساسيّة:
1. التحقّق من المصدر قبل تصديق أيّ معلومة: إنّ التحقّق من هويّة الناشر، وتوقيت النشر، وتوافر المحتوى نفسه عبر مصادر موثوقة متعدّدة، يشكّل خطّ الدفاع الأوّل ضدّ الأخبار الزائفة. ويمكن الاستعانة بأدوات التحقّق الرقميّة مثل: «GoogleFact Check» و«InVID» و«TinEye» لكشف الصور والفيديوهات المزوّرة زمنيّاً أو بصريّاً، أو ما طرأ عليها من تعديلات وإضافات.
2. عدم الثقة المطلقة في كلّ ما يبدو حقيقيّاً: المظهر المتقن أو اللغة العاطفيّة لا يعنيان بالضرورة الصدق. فالذكاء الاصطناعيّ يتقن تقليد أساليب البشر في الإقناع، من الدعابة، إلى الوطنيّة، وصولاً إلى الحسّ والعاطفة، ما يستدعي تطوير حسّ نقديّ يميّز بين الصدق المعرفيّ والإقناع الأسلوبيّ.
3. حماية البيانات الشخصيّة: تشكّل حماية البيانات الشخصيّة ركيزة أساسيّة في الوقاية؛ فكلّما عرف النظام الذكيّ عنك أكثر، صار أسهل عليه خداعك. لذلك، يجب تجنّب نشر المعلومات الحسّاسة أو الصور الخاصّة، وعدم منح التطبيقات صلاحيّات غير ضروريّة كالدخول إلى الكاميرا والميكروفون وجهات الاتّصال وغيرها.
4. التمييز بين الاستخدام العلميّ والتجاريّ والتضليليّ: ليست كلّ الأدوات الذكيّة بريئة؛ فقراءة سياسات الخصوصيّة –على الرغم من تفصيلها الطويل– تكشف أحياناً عن إذنٍ ضمنيّ بجمع الصوت أو الوجه «لتحسين النماذج»، أي لاستخدام بياناتك من دون علمك.
وأخيراً، في زمنٍ أصبحت فيه الصورة تُكذّب الكلمة، والكلمة تُقنع أكثر من الحقيقة، يصبح الوعي خطّ الدفاع الأوّل ضدّ التضليل. فالذكاء الاصطناعيّ ليس خطراً يجب الهروب منه، بل واقع يجب فهمه والتعامل معه بذكاءٍ مقابل.
وتبقى الثقافة الرقميّة والتفكير النقديّ هما الحصن الذهنيّ الأهم في مواجهة الذكاء الاصطناعيّ الخادع، فالعقل الذي يتعامل مع كل معلومة كفرضيّة قابلة للفحص لا يسقط بسهولة في فخّ التضليل، وقبل أن نشارك أي محتوى أو نصدّق أي رواية، علينا أن نتوقّف لحظة ونسأل:
- من المستفيد من نشر هذه المعلومة؟
- ما الدليل الماديّ على صحتها؟
- هل تحتوي على لغة عاطفية مبالغ فيها؟
إنّ هذه الأسئلة البسيطة تُعيد تشغيل التفكير العقلانيّ قبل أن تتحكّم بنا العاطفة، وتمنحنا مناعة معرفية في عالمٍ لم تعد فيه الحقيقة تُرى بالعين، بل تُصمَّم وتُبرمج بخوارزميّة.
*باحث في أمن المعلومات.