
ما هو مقلب الرجل المشرد؟
بدأت القصة كمقلب بسيط نشره أحد المستخدمين على منصة تيك توك، يظهر فيه رجل يبدو عليه الفقر والتشرد وهو يتجول في الشوارع ويدخل منازل الناس عن طريق الخطأ. سرعان ما انتشر المقطع كالنار في الهشيم، ليتبيّن لاحقًا أن "الرجل المشرد" ليس إنسانًا حقيقيًا، بل نموذج توليدي تم إنشاؤه عبر أدوات الذكاء الاصطناعي المتقدمة في توليد الصور والفيديوهات الواقعية. وقد لاحظ المتابعون أن التفاصيل الدقيقة للوجه والتعبيرات تعكس مستوى متقدمًا جدًا من التوليد الاصطناعي، ما جعل المقطع يبدو حقيقيًا بشكل مدهش.
تحديث جديد: بعض صانعي المحتوى بدأوا باستخدام تقنيات متقدمة لمحاكاة ردود فعل المشاهدين وجعل المشهد أكثر إقناعًا، بما في ذلك تعديل الإضاءة والظلال لخلق إحساس بالواقعية. كذلك تم دمج تأثيرات صوتية دقيقة تجعل المشاهد يصدق أن الشخص موجود فعلًا في المكان.
أهمية الموضوع وانتشاره
أهمية هذه القصة لا تكمن فقط في طبيعتها المثيرة، بل في ما تكشفه من تحول خطير في طريقة استخدام الذكاء الاصطناعي على الإنترنت. فبضغطة زر، يمكن لأي شخص أن يصنع شخصية رقمية تبدو حقيقية تمامًا، ويجعلها محور قصة درامية أو حتى حادثة مزيفة تجذب ملايين المشاهدات. هذا النوع من المحتوى أصبح يمثل تحديًا حقيقيًا أمام الصحافة التقليدية ومنصات التحقق من الحقائق، حيث يصعب تمييز المزيف عن الحقيقي.
كما أنه يفتح المجال لمناقشات أوسع حول التأثير النفسي على الجمهور، خصوصًا الأطفال والمراهقين الذين قد يصعب عليهم التمييز بين الواقع والمحتوى المولّد بالذكاء الاصطناعي. وقد رصدت بعض الدراسات الحديثة تزايد نسبة التفاعل مع هذه المقاطع مقارنة بالمحتوى التقليدي، مما يجعلها أداة قوية في جذب الانتباه والمشاهدات.
كيف يتم إنشاء مثل هذا الفيديو/الصورة؟
لفهم طريقة العمل خلف الكواليس، إليك الخطوات العامة التي غالبًا ما تُستخدم لإنشاء هذا النوع من المحتوى المزيف:
- اختيار مشهد حقيقي أو صورة من داخل منزل — مثلاً غرفة معيشة، أو باب مدخل. المستخدم يأخذ صورة أو لقطة له، مع التأكد من زوايا الإضاءة والتفاصيل الدقيقة لتسهيل التوليد الاصطناعي لاحقًا.
- استخدام أداة توليد الصور بالذكاء الاصطناعي (مثل Runway ML أو Stable Diffusion) ويُدخل وصفًا مثل: „رجل مشرد بمعطف ممزّق، يقف داخل الغرفة“. الأداة تُخرج صورة واقعية جدًا تُظهر الرجل في المنزل، مع إضافة تفاصيل دقيقة مثل نسيج الملابس وحركة الشعر.
- في بعض الحالات، يتم تحويل الصورة إلى مقطع فيديو بسيط باستخدام أدوات توليد الفيديو بالذكاء الاصطناعي أو مؤثرات حركة بسيطة (مثل تحريك الظلال أو تعديل الإضاءة) لجعل المشهد يبدو حيًّا. كما أن بعض المبدعين قد يستخدمون أدوات الـ deepfake لإضافة تحرّك بسيط في وجه الرجل أو تغير في التعبير، أحيانًا مزج ذلك مع صوت اصطناعي واقعي لإقناع المشاهد أكثر.
- التعديل النهائي: يتم إضافة الصوت أو رسالة نصّية يُرسلها المبتز إلى الوالدين أو أفراد العائلة «صحيح أو مزيف» لخلق رد فعل ذعري (مثلاً: „لقد تركته في البيت وهو يقول إنه سيبقى هنا“)، وأحيانًا تضاف مؤثرات موسيقية لتعزيز الإحساس بالتوتر والخوف.
- ثم يُسجّل ردّ فعل الشخص الآخر (كالوالد أو الأم) ويُنشَر على تيك توك أو إنستغرام تحت وسم معين (#homelessmanprank)، وغالبًا ما يتم تعديل الفيديو ليناسب صيغ مختلفة للمنصات الاجتماعية الأخرى.
هذه الخطوات تعكس مدى سهولة خلق محتوى يبدو “حقيقيًا” في زمن الذكاء الاصطناعي — وهذا ما يجعل القضية أكثر إثارة لكنها أيضًا أكثر خطورة، خصوصًا عند انتشارها بسرعة على منصات عالمية دون تحذيرات.
يمكنك قراءة مقالنا السابق عن طرق إنشاء فيديوهات بسهولة OpenAI تطلق Sora 2: إنشاء الفيديوهات بالذكاء الاصطناعي بسهولة
التحديات والمخاطر
أبرز تحدٌٍّ يطرحه هذا النوع من المحتوى هو فقدان الثقة في كل ما نراه على الإنترنت. عندما يصبح من السهل جدًا تزييف الفيديوهات أو الصور بهذه الدرجة من الإتقان، فإن الخط الفاصل بين الحقيقة والخيال يختفي تدريجيًا، وقد يؤدي ذلك إلى تضليل الجمهور حول أحداث حقيقية أو أخبار عاجلة.
كما أن السلطات في أكثر من ولاية أميركية حذّرت من أن مثل هذه المقالب يمكن أن تستهلك موارد الشرطة، وتثير الذعر بين الناس، وقد تؤدي حتى إلى حوادث مؤسفة. بالإضافة إلى ذلك، أظهرت بعض الدراسات الحديثة أن المحتوى المزيف يمكن أن يزيد من انتشار الأخبار المضللة بسرعة أكبر من المحتوى الحقيقي، مما يشكل تحديًا أخلاقيًا وتقنيًا في نفس الوقت.
نصائح للحماية من التضليل
- تحقق دائمًا من مصدر الفيديو أو الصورة قبل مشاركته.
- ابحث عن إشارات غير واقعية في الصورة مثل الظلال غير المنطقية، أو حركات الفم غير المتزامنة.
- استخدم أدوات الكشف عن المحتوى المزيف مثل AI or Not أو Deepware Scanner.
- لا تشارك مقاطع تثير الذعر أو تدعو للتصرف العاجل دون التأكد من صحتها.
- تأكد من مقارنة محتوى الفيديو مع مصادر متعددة قبل نشره أو التعليق عليه.
أثر الظاهرة على المجتمع
القضية كشفت عن ظاهرة جديدة: الجمهور لم يعد يصدق بسهولة، لكنه في الوقت ذاته ينجذب إلى المحتوى الغريب والمثير حتى لو كان مزيفاً. الذكاء الاصطناعي خلق واقعاً موازياً يجمع بين الترفيه والخطر، ويضع المستخدمين أمام مسؤولية جديدة — وهي التفكير النقدي قبل التفاعل. هذه الظاهرة تفتح المجال لمناقشات أوسع حول حماية الأطفال من المشاهد المضللة وتأثيرها النفسي.
كما أن هذه الحادثة أعادت النقاش حول ضرورة إدخال تعليم "الوعي الرقمي" في المدارس، حتى يتمكن الجيل القادم من تمييز الحقيقة من الزيف في عالم تسيطر عليه الخوارزميات، وتشجع على تنمية مهارات التفكير التحليلي للتعامل مع المعلومات الرقمية بشكل مسؤول.
أسئلة شائعة
- هل هذا “رجل حقيقي” تم تصويره؟
- لا — الصورة أو الفيديو الذي يُستخدم في المقلب غالباً ما يكون مولّداً بالكامل من أدوات الذكاء الاصطناعي، وليس لشخص حقيقي يُدخِل المنزل. ومع ذلك، الإقناع العالي للمقطع يجعل الكثيرين يصدقونه بسهولة.
- هل يُعدّ هذا المقلب قانونياً؟
- في كثير من الحالات، يُمكن أن يعتبر إبلاغ الطوارئ بمحتوى زائف “تبليغًا كاذبًا” وقد يترتب عليه عقوبات أو غرامات. وقد حذرت بعض السلطات من استخدام الذكاء الاصطناعي لخلق محتوى قد يضر الآخرين، خاصة عند نشره على نطاق واسع.
- لماذا يُستخدم هذا النوع من المقالب؟
- يرجع السبب غالباً إلى السعي لجذب مشاهدات، إعجابات ومتابعين على وسائل التواصل، باستخدام عنصر المفاجأة والخوف. كما أنه يمثل اختبارًا لقدرة المبدعين على استخدام أدوات الذكاء الاصطناعي بشكل إبداعي لإنتاج محتوى قابل للانتشار بسرعة.
رأينا في AI-Alarabi
نحن نرى أنّ هذا النوع من المحتوى يشكّل تحذيرًا مهمًّا: التكنولوجيا لا تنتظر القدرات الأخلاقية لعُدّة المستخدمين. بينما تجلب أدوات الذكاء الاصطناعي إمكانات إيجابية لا تُعدّ، فإن استخدامها لأغراض “المقالب” يُظهر الجانب المظلم الذي قد يؤدي إلى فقدان الثقة، وإلى تبعات غير محسوبة. كما أن انتشار هذه الفيديوهات يدعو إلى تحديث سياسات المنصات الاجتماعية لتعزيز الشفافية وإلزام المبدعين بالإفصاح عن توليد المحتوى.
نقترح أن نتعامل مع المحتوى الرقمي بحذر أكبر، وأن نعزز في مجتمعاتنا ثقافة السلوك المسؤول تجاه التكنولوجيا — ليس فقط ما نستطيع فعله، بل ما ينبغي فعله. ويجب أيضًا دعم الأبحاث حول تأثير المقالب الرقمية على الصحة النفسية للمشاهدين، خصوصًا الفئات الأكثر تأثرًا.
خاتمة
مقلب "الرجل المشرد" قد يبدو مجرد دعابة، لكنه يفتح الباب أمام مستقبل يمكن فيه للذكاء الاصطناعي أن يُستخدم لخلق روايات كاملة من لا شيء. وبينما تواصل التكنولوجيا تطورها المذهل، يبقى التحدي الحقيقي هو كيف نحافظ على الحقيقة في عصر أصبح التزييف فيه واقعًا سهل الصنع، وكيف نعلّم المجتمع أن يميز بين الواقع والخيال في محيط رقمي متغير.