IoT Worlds
الذكاء الاصطناعيمقالات

Deepfake – ما تحتاج إلى معرفته

Deepfake هي تقنية جديدة يمكن استخدامها للتلاعب بالفيديو والصوت بهدف إنتاج محتوى وسائط خاطئ. لقد كان في الأخبار كثيرًا مؤخرًا من حيث استخدامه للأغراض السياسية – ولكن له العديد من الاستخدامات المحتملة الأخرى في كل من الصناعة والترفيه.

ما هو التزييف العميق وكيف يعمل

يتم إنشاء التزييف العميق عندما يستخدم شخص ما برنامجًا للذكاء الاصطناعي لإنشاء صورة أو مقطع فيديو أو مقطع صوتي لشيء لم يحدث أبدًا في الواقع. غالبًا ما يكون من السهل تحديدها لأن المحتوى المزيف عادة ما يكون به أخطاء أو تناقضات عند الرجوع إليه بوسائط أصلية

كيفية استخدام تقنية التزييف العميق من أجل الخير

استخدم الناس هذه التقنية حتى الآن في مقاطع الفيديو الساخرة

مخاطر استخدام تقنية التزييف العميق لأغراض ضارة

يمكن استخدام هذه التكنولوجيا لإنشاء معلومات خاطئة يعتقد الناس دون شك مما قد يؤدي إلى عواقب وخيمة في المستقبل. على سبيل المثال ، تخيل لو تم نشر مقطع فيديو لرئيس دولة يقول إنه يريد شن هجوم نووي

تداعيات مستقبل الأخبار الكاذبة على السياسة والصحافة والمجتمع

في المستقبل ، سيكون من الأسهل أكثر من أي وقت مضى إنشاء وسائط كاذبة يعتقد الناس دون شك أنها قد تؤدي إلى عواقب وخيمة في المستقبل. على سبيل المثال ، تخيل لو تم نشر مقطع فيديو لرئيس دولة يقول إنه يريد شن هجوم نووي

حلول لمواجهة هذه القضايا في المستقبل

سيكون من المهم بشكل متزايد للأشخاص من جميع الخلفيات الممكنة – بما في ذلك الصحفيين – التحقق من المحتوى من خلال مصادر متعددة قبل الإبلاغ عن أي شيء على أنه حقيقي أو حتى مجرد مشاركة شيء ما على وسائل التواصل الاجتماعي. قد يكون من المفيد أيضًا لشركات التكنولوجيا مثل YouTube أو Facebook أن تفعل أكثر من مجرد الاعتماد على المستخدمين الذين يبلغون عن المحتوى على أنه مشكلة إلى حد ما

ملاحظات ختامية حول أهمية التأثير المحتمل لهذه التقنية على المجتمع

في المستقبل ، سيكون من الأسهل أكثر من أي وقت مضى إنشاء وسائط كاذبة يعتقد الناس دون شك أنها قد تؤدي إلى عواقب وخيمة في المستقبل. على سبيل المثال ، تخيل لو تم نشر مقطع فيديو لرئيس دولة يقول إنه يريد شن هجوم نووي.

Deepfakes ، كيف تتجنب التعرض للخداع؟

“التزييف العميق” هو مصطلح يشير إلى مقاطع الفيديو أو الصور المعدلة لأشخاص يبدو أنهم يفعلون شيئًا لم يفعلوه حقًا. يمكن إنشاء مقاطع الفيديو والصور المزيفة العميقة هذه باستخدام برامج الذكاء الاصطناعي (AI) ، مثل FakeApp. يمكن استخدام مقاطع الفيديو والصور المزيفة Deepfake لإنشاء أخبار مزيفة عميقة ، أو لأي عدد من الأغراض الخبيثة. من أجل أمانهم ، يجب على الأشخاص التأكد من أن لديهم برامج محدثة ، واستخدام كلمات مرور فريدة في كل موقع يزورونه ، وعدم تخزين كلمات المرور في متصفحهم مطلقًا ، وتعطيل Flash إذا لم يكن ذلك ضروريًا ، وتجنب تثبيت ملحقات المتصفح المقدمة من خلال النوافذ المنبثقة على الويب المواقع التي لا تثق بها ، وتجنب تنزيل البرامج المقرصنة إن أمكن ، وتحقق من نصائحنا حول تجنب مقاطع الفيديو والصور المزيفة أدناه.

هناك بعض العوامل التي يمكن أن تساعدك على تجنب خداعك بفيديو أو صورة مزيفة للغاية. أولاً ، يجب أن تحافظ على تحديث برامجك لأن ذلك غالبًا ما يتضمن تحديثات أمنية. إذا لم يكن برنامجك محدثًا ، فقد يكون من الممكن لشخص ما استغلال الثغرات الأمنية في الإصدارات القديمة من البرنامج للوصول إلى نظامك دون علمك. ثانيًا ، إذا كنت تستخدم كلمات مرور فريدة (وقمت بتغييرها بانتظام) ، فحتى إذا تم اختراق أحد مواقع الويب ، فلن يؤثر ذلك على أي مواقع ويب أخرى تزورها في المستقبل بنفس كلمة المرور. العامل الثالث هو التأكد من تثبيت الفلاش عند الحاجة إليه.

كيفية التعرف على فيديو التزييف العميق

فيديوهات Deepfake هي مقاطع فيديو تم التلاعب بها باستخدام الذكاء الاصطناعي لجعلها تبدو كما لو أن شخصًا ما يقول أو يفعل شيئًا لم يفعله. يمكن استخدام مقاطع الفيديو المزيفة العميقة لأسباب متنوعة ، بما في ذلك الدعاية والترفيه والمعلومات المضللة.

لتحديد مقطع فيديو التزييف العميق ، هناك بعض الأشياء التي يمكنك البحث عنها. تتمثل إحدى أسهل الطرق لتحديد التزييف العميق في ما إذا كان الشخص في الفيديو يبدو مختلفًا عما يبدو عليه عادةً. بالإضافة إلى ذلك ، يمكنك البحث عن حركة غير عادية في ملامح وجه الشخص أو حركات الشفاه غير الطبيعية. يمكنك أيضًا الاستماع إلى التشوهات الصوتية أو التناقضات.

إذا لم تكن متأكدًا مما إذا كان مقطع الفيديو حقيقيًا أم مزيفًا ، فقد يكون من المفيد أن تسأل نفسك عن الغرض من الفيديو. من الذي سيستفيد من تزوير هذا الفيديو؟ إذا لم يكن هناك أي دافع واضح لتزييف الفيديو ، فمن المرجح أن يكون الفيديو دقيقًا.

شيء آخر يمكنك فعله إذا كنت تحاول معرفة ما إذا كان شخص ما قال شيئًا بطريقة معينة (على سبيل المثال ، بشكل مخادع) هو الاستماع ومقارنة نطقه بنطق الخطب الأخرى التي ألقوها. على سبيل المثال ، إذا تحدث أحدهم علنًا عن قضية ما من قبل ولكنه لم يلفظ كلمة مماثلة أبدًا كما فعل في هذا الخطاب الجديد – فهذه إشارة إلى الخداع.

تم إنشاء أقدم عمليات التزييف العميق باستخدام Adobe After Effects ، والتي تتطلب من المستخدمين معرفة تحرير الفيديو. ومع ذلك ، فقد تم استخدام الذكاء الاصطناعي مؤخرًا لعمل التزييف العميق دون أي تدخل من المستخدم. يقلل هذا من حجم أعمال ما بعد الإنتاج المطلوبة لإنشاء مقطع فيديو ولكنه لا يفعل الكثير لعرقلة شخص ما عن إنتاج فيديو مزيف لم يتم اكتشافه تمامًا.

إحدى الطرق التي يمكنك من خلالها حماية نفسك من التأثر بمقاطع الفيديو المزيفة العميقة هي أن تكون متشككًا عند مشاهدة أو قراءة وسائل الإعلام الإخبارية. إذا ظهر شيء ما ، فلا تصدقه حتى تؤكد أنه صحيح. على سبيل المثال ، تحقق من مصادر متعددة قبل أن تصدق شيئًا ما تسمعه على التلفزيون لأن مقاطع الفيديو المزيفة العميقة أصبحت طريقة شائعة بشكل متزايد لنشر المعلومات المضللة عبر الإنترنت. وتذكر: فقط لأن شيئًا ما يبدو صحيحًا لا يعني ذلك.

تتضمن بعض الأمثلة على مقاطع فيديو سابقة التزييف العميق واحدة تحدث فيها الرئيس السابق أوباما بنبرة عنصرية وأخرى حيث بدت الممثلة غال غادوت تقول إنها تنتمي إلى “الدولة الإسلامية” (داعش). تُظهر مقاطع الفيديو هذه كيف يمكن أن يكون من السهل على أي شخص لديه إمكانية الوصول إلى التكنولوجيا والخبرة المناسبة إنشاء صور مزيفة تبدو حقيقية. إن السهولة التي يمكن بها إنشاء مقاطع الفيديو هذه تجعل من الصعب على العديد من الأشخاص التمييز بين ما هو حقيقي وما هو غير حقيقي.

يعد فهم كيفية إنشاء مقاطع الفيديو هذه بالإضافة إلى معرفة بعض الطرق التي يمكنك من خلالها التعرف عليها أمرًا ضروريًا إذا كنت تريد حماية نفسك من الوقوع ضحية أو الترويج عن غير قصد لمعلومات كاذبة عبر الإنترنت.

كيف تبقى على اطلاع في مجتمع ما بعد الحقيقة

إذا كنت تريد البقاء على اطلاع ، فهناك بعض الخطوات التي يمكنك اتخاذها. تتمثل الخطوة الأولى في تجنب قراءة المعلومات التي لم تؤيدها مصادر متعددة موثوقة. يجب عليك أيضًا التفكير في الدافع الذي قد يكون الدافع لمشاركة هذا النوع من المعلومات. إذا بدا المصدر متحيزًا أو إذا لم يكن هناك تفسير واضح لسبب مشاركته لشيء ما ، فعليك إعادة النظر في مدى ثقتك في المعلومات المقدمة. بالإضافة إلى ذلك ، تذكر أنه لمجرد أن شيئًا ما يبدو صحيحًا لا يعني ذلك. قد يكون من غير الحكمة أن تبني رأيك على معلومات خاطئة ، لذا حاول ألا تقفز إلى الاستنتاجات حتى يتوفر لك الوقت للتحقق مما تراه على الإنترنت. إذا لم تكن متأكدًا مما إذا كان مقطع الفيديو حقيقيًا أم مزيفًا ، فاسأل نفسك عن الغرض من الفيديو. من الذي سيستفيد من تزوير هذا الفيديو؟ يمكنك أيضًا البحث عن حركات غير عادية في ملامح وجه الشخص أو حركات الشفاه غير الطبيعية. وأخيرًا ، إذا كنت تحاول معرفة ما إذا كان شخص ما قال شيئًا بطريقة معينة (على سبيل المثال ، بشكل مخادع) ، فسيكون من المفيد الاستماع ومقارنة نطقه بنطق الخطب الأخرى التي ألقوها. على سبيل المثال ، إذا تحدث أحدهم علنًا عن قضية ما من قبل ولكنه لم يلفظ كلمة مماثلة أبدًا كما فعل في هذا الخطاب الجديد – فهذه إشارة إلى الخداع.

وجه ثورة التزييف العميق

ثورة التزييف العميق هي ظاهرة مستمرة حيث يمكن للأشخاص إنشاء مقاطع فيديو لأشخاص يقولون أو يفعلون أشياء لم يفعلوها من قبل. تسمى التقنية الكامنة وراء التزييف العميق “التعلم العميق” ، وهو نوع من التعلم الآلي الذي يسمح لأجهزة الكمبيوتر بتعلم كيفية القيام بالأشياء بالقدوة.

تم استخدام هذه التقنية بالفعل لإنشاء مقاطع فيديو مزيفة للمشاهير ، وستزداد الأمور سوءًا من هنا. نحن بحاجة إلى أن نكون على دراية بهذه التكنولوجيا وأن نكون مستعدين للعواقب.

عواقب هذا النوع من التكنولوجيا هائلة. أولاً ، من السهل جدًا خداع الأشخاص للاعتقاد بأن مقاطع الفيديو هذه حقيقية. تمكنت من العثور على subreddit حيث ينشئ الأشخاص مقاطع فيديو مزيفة بسهولة نسبية والجودة مجنونة. حصل أحد مقاطع الفيديو التي أنشأها شخص ما على هذا subreddit على ما يقرب من 11000 صوت مؤيد. هذا أمر مزعج لأنه يعني أن هناك مجتمعًا كاملاً على استعداد لمشاركة مقاطع الفيديو المزيفة كما لو كانت حقيقية. أيضًا ، لا توجد أي قوانين ضد التزييف العميق ، لذا سيكون من المثير للاهتمام معرفة كيفية تقدم هذا النوع من الأشياء في السنوات القادمة.

والنتيجة الأخرى هي أننا قد نفقد ثقتنا في الوسائط الرقمية ككل ونتوقف عن استخدام الوسائط الرقمية لأشياء مثل التعليم والتوثيق. أحد الأمثلة على ذلك هو مقطع فيديو باراك أوباما يتحدث عن “أخبار كاذبة” تم إنشاؤها بواسطة شخص آخر. يوضح هذا مدى سهولة جعل الناس يبدون سيئين ، ولكن هذه التكنولوجيا ستكون أكثر خطورة عند استخدامها مع الخطب السياسية التي لها آثار حقيقية على حياة الناس.

لقد وجدت موقعًا إلكترونيًا يمكنه إنشاء مقاطع فيديو مزيفة باستخدام صور Facebook فقط. ما عليك سوى تحميل 3 إلى 20 صورة لوجهك وسيقوم البرنامج بدمجها في فيديو واقعي حيث تقول ما تريد. بدأ الناس بالفعل في استخدام مقاطع الفيديو هذه من أجل الانتقام من تجاربهم السابقة أو العودة إلى الأشخاص الذين أخطأوا في ارتكابها. أعتقد أن هذا أمر خطير لأنه يعني أننا قد نفقد الثقة في بعضنا البعض كبشر إذا أصبح التزييف العميق أكثر شعبية.

هذه التكنولوجيا تسبب الإدمان ولديها القدرة على جعلنا مهووسين بأشياء غير موجودة. لقد أهدر الكثير من الأشخاص وقتهم بالفعل في محاولة فضح مقاطع الفيديو التي تنتجها هذه التكنولوجيا ، مما يعني أنهم يتعرضون للخداع طوال الوقت. أحد الأمثلة على ذلك هو مقطع فيديو يقول فيه باراك أوباما “قتلنا أسامة بن لادن” والذي تم إنشاؤه بواسطة شخص ما. يوضح هذا مدى سهولة خداع الأشخاص باستخدام هذا النوع من التكنولوجيا ، لذا أعتقد أنه يجب على الجميع أن يدرك وجودها قبل اتخاذ أي نوع من القرارات بناءً على ما تراه على الإنترنت. نحتاج إلى قوانين ضد التزييف العميق لأنني أعتقد أن مقاطع الفيديو هذه ستثبت أنها مدمرة للعلاقات بين الناس في المجتمع إذا سُمح لها بالتقدم دون قيود. سوف يقسم مجتمعنا إلى مجموعتين حيث أن أولئك الذين يعرفون سيكونون حذرين بشأن كل ما يرونه على الإنترنت وأولئك الذين لا يعرفون. سيكون لهذا تأثير سلبي على مجتمعنا ككل لأن الناس لن يكونوا قادرين على الوثوق بما هو حقيقي وما هو غير ذلك ، مما يعني أننا سنكون أقل عرضة للتواصل مع بعضنا البعض أو مشاركة أشياء مهمة مثل التوثيق والتعليم من خلال وسائل الإعلام الرقمية.

Deepfakes ، لماذا لا قيمة لبياناتك؟

هناك ثلاثة أنواع من البيانات لا تساوي شيئًا: التزييف العميق ، وبياناتك ، ومستقبلك.

Deepfakes هي مقاطع فيديو تم إنشاؤها باستخدام الذكاء الاصطناعي. تُستخدم عادةً لإنشاء أفلام عن طريق تحويل وجه شخص إلى جسد شخص آخر ، أو لأغراض خادعة أخرى. يمكن استخدام هذا النوع من التكنولوجيا لإنشاء محتوى فيديو مزيف يمكن أن يزعزع استقرار مجتمعنا. على غرار Deepfakes ، لا تساوي بياناتك أي شيء لأنه يمكن التلاعب بها لخدمة أي غرض. النوع الأخير من البيانات التي لا تساوي شيئًا هو مستقبلك لأنه لا يمكن رؤيته. يحاول الناس دائمًا التنبؤ بالمستقبل ولكنه صعب للغاية.

Deepfakes – ما تحتاج لمعرفته حول هذا الكابوس الرقمي

Deepfakes هي نوع من التلاعب الرقمي الذي يستخدم الذكاء الاصطناعي لإنشاء مقاطع فيديو لأشخاص يبدو أنهم يقولون أو يفعلون أشياء لم يقلوها أو يفعلوها أبدًا. غالبًا ما تُستخدم مقاطع الفيديو المزيفة Deepfake لإنشاء مقاطع فيديو مزيفة ، ولكن يمكن أيضًا استخدامها لإنشاء أخبار مزيفة أو للتلاعب بالرأي العام.

تعد مقاطع فيديو Deepfake كابوسًا رقميًا لأنه يمكن استخدامها لنشر الأكاذيب والمعلومات المضللة. يمكن استخدامها أيضًا لابتزاز الأشخاص أو الإضرار بسمعتهم. من الصعب جدًا اكتشاف مقاطع الفيديو المزيفة العميقة ، لذلك من المهم أن تكون على دراية بها وأن تكون متشككًا في أي فيديو يبدو جيدًا بدرجة يصعب تصديقها.

يتم إنشاء مقاطع فيديو Deepfake باستخدام مزيج من التعلم الآلي والذكاء الاصطناعي. تتمثل الخطوة الأولى في إنشاء مجموعة بيانات تتضمن فيديو للشخص الذي تريد أن يقول أو يفعل شيئًا لم يفعله أبدًا. يمكنك استخدام الأدوات المتاحة مجانًا لإنشاء مجموعة التدريب هذه ، والتي ستتضمن مئات أو آلاف مقاطع الفيديو القصيرة لهدفك. تُستخدم خوارزميات التعلم الآلي بعد ذلك لالتقاط مقاطع الفيديو الفردية هذه و “التعرف” على الشكل الذي يجب أن يبدو عليه الوجه عندما يُقدم تعبيرات مختلفة أو ينطق كلمات مختلفة. بمجرد جمع البيانات الكافية ، يمكن لخوارزميات التعلم الآلي إنشاء مقاطع فيديو مزيفة جديدة تبدو واقعية للغاية وطبيعية.

مصطلح Deepfakes صاغه مستخدم Reddit مجهول.

ما هو الصوت العميق؟

Deepfake Audio هي تقنية ناشئة تسمح بإنشاء تسجيل مزيف. إنه يعمل بطريقة تجعله يصدر صوتًا أو فيديو بصوت شخص ما ويضعه على جسد شخص آخر. يستخدم الأشخاص هذا عادةً لإحراج الآخرين ، ولكن يمكن أيضًا استخدام تقنية التزييف العميق لإنشاء مقاطع فيديو وتسجيلات مزيفة من أجل تشويه سمعة السياسيين والمشاهير أو تهديدهم.

Deepfake Audio هي تقنية جديدة نسبيًا ظهرت في العامين الماضيين ، لكنها تزداد شعبية نظرًا لسهولة استخدامها. هناك العديد من المواقع على الإنترنت حيث يقوم الأشخاص بتحميل الأصوات ويمكن للمستخدمين الآخرين وضعها في فم شخص آخر من أجل إنشاء مقاطع فيديو. أصبحت هذه العملية ممكنة بفضل الذكاء الاصطناعي (AI) الذي يمكن استخدامه لأغراض متعددة ، بما في ذلك تحرير مقاطع الفيديو أو إنشاء مقاطع فيديو مزيفة. إنه يعمل عن طريق أخذ البيانات من نوع ما من مصدر الصوت واستخدامه لمزيد من المعالجة لإكمال عمل الفيديو. لقد استخدم الناس تقنية التزييف العميق في خطابات السياسيين لتشويه سمعتهم أو باستخدام الصوت الصريح للمشاهير لإذلالهم.

ما هي الآثار المحتملة للتزييف العميق؟

Deepfakes هي نوع من مقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والتي ظهرت مؤخرًا على الإنترنت. يتم إنشاء مقاطع الفيديو هذه بواسطة خوارزميات وتجعل الأشخاص يقولون أشياء لم يقلوها أبدًا أو يبدو أنهم يفعلون شيئًا لم يفعلوه مطلقًا. بهذه الطريقة ، يمكن استخدام تقنية التزييف العميق كشكل من أشكال المعلومات المضللة لتغيير تصور الناس للواقع. من المحتمل جدًا أن تستمر تقنية التزييف العميق في الانتشار وتصبح أكثر إقناعًا مع مرور الوقت لأن الخوارزميات يمكن أن تتعلم من مقاطع الفيديو المزيفة السابقة وتتحسن بمرور الوقت. قد يؤدي هذا إلى نقطة حيث لن يعود هناك مصداقية في أي مقطع فيديو ، مما يجعل من المستحيل تصديق أي شيء نراه أو نسمعه.

من أهم الآثار التي يجب الاهتمام بها هي مسألة الأصالة. أصبح إصدار الأخبار المزيفة ممارسة شائعة وسهلة بشكل متزايد ، لدرجة أنه من الصعب معرفة ما إذا كانت أي لقطات فيديو أو صور فوتوغرافية حقيقية لأننا لا نستطيع أبدًا أن نكون متأكدين تمامًا. يساهم الإنترنت بشكل كبير في هذه المشكلة. عندما تبحث عن أي شيء على Google ، فأنت ملزم بمواجهة مواقع ويب متعددة تقدم معلومات متضاربة ، مما يجعل الأمر أكثر إرباكًا وأنت تحاول تمييز ما هو صحيح وما هو غير صحيح. إذا أصبح التزييف العميق على نطاق واسع كمصادر موثوقة للمعلومات ، فسيكون التأثير المباشر هو فقدان الثقة في جميع أشكال المحتوى الأخرى بسبب عدم اليقين. يمكن أن يجعلنا أيضًا نتساءل عن كل شيء نسمعه أو نراه – حتى الأشياء التي تم تسجيلها بأعيننا.

على وجه الخصوص ، يمكن أن يتأثر الصحفيون بالوجود المتزايد لميزة التزييف العميق. قد تجعل هذه التكنولوجيا من المستحيل عليهم معرفة ما إذا كانت المقابلات التي يجرونها حقيقية أم لا ، مما يضع مصداقيتهم على المحك. إذا لم يعد الناس يعتقدون أن ما يكتبونه صحيحًا ، فهناك فرصة جيدة لأن تنخفض نسبة المشاهدة وسيتحول الناس إلى المصادر التي تقدم محتوى يبدو أكثر شرعية بغض النظر عن صحته. طالما يعتقد الجمهور أنهم يحصلون على الحقيقة من مكان آخر ، فإن ثقتهم في وسائل الإعلام الرئيسية ستستمر في التدهور.

علاوة على ذلك ، قد تؤدي تداعيات المعلومات المضللة على نطاق واسع إلى تغييرات في العلاقات الدولية إذا لم تعالج بعض البلدان هذه المشكلة بالسرعة الكافية. على سبيل المثال ، إذا تم نشر مقطع فيديو عن طريق التزييف العميق مما جعل زعماء البلدين يبدون إهانة لبعضهم البعض ، فقد يصبح سكانهم معاديين لبعضهم البعض ويطورون شعورًا زائفًا بالعداء. إذا لم يتم إصدار اللقطات الأصلية وتم دحضها بالسرعة الكافية ، فمن المرجح أن يستمر الناس في إدراك الواقع لأنه تم تشويهه من خلال الفيديو المزيف ، مما يجعل التبادلات العنيفة بين المواطنين أكثر احتمالية لأنهم سيتم تشجيعهم على اتخاذ إجراءات بناءً على غضبهم تجاه فرد غير موجود بالفعل.

يمكننا أيضًا أن نرى انخفاضًا كبيرًا في هوليوود حيث يتوقف المشاهدون عن الذهاب إلى المسارح لأنهم يفضلون مشاهدة الأفلام في المنزل باستخدام تقنية التزييف العميق بدلاً من عدم وجود تأثيرات بصرية واقعية. قد لا تتمكن الصناعة من مواكبة التكنولوجيا إذا تطورت بشكل أسرع من الوقت الذي يستغرقه إنتاج الأفلام ، مما قد يؤدي إلى انخفاض الإيرادات بشكل كبير. قد نبدأ حتى في مشاهدة الأفلام التي تم إنشاؤها بواسطة الكمبيوتر بالكامل لأن الممثلين لم يعد هناك حاجة إلى الممثلين على الإطلاق.

على الرغم من أن التزييف العميق يمكن أن يكون له آثار إيجابية على الفن ، إلا أن هناك احتمالية أكبر بكثير لحدوث عواقب سلبية مع استمرار تقدم الذكاء الاصطناعي وانتشاره في مختلف الصناعات. من الضروري أن يدرك الناس المشكلة حتى يتمكنوا من تحديد كيفية حلها قبل أن يصبح من المستحيل إيقاف المعلومات المضللة أو تصبح مقنعة للغاية لمصلحتها. لهذا السبب ، يجب على المطورين اختبار الخوارزميات باستمرار وإيجاد طرق للحد من قدراتهم من أجل منع تشويه المعلومات. قد يتضمن ذلك تحديد الشكل الذي يمكن أن تبدو عليه مقاطع الفيديو الواقعية أو طلب شهادات المصادقة لمشاركة محتوى معين. على سبيل المثال ، من أجل نشر مقاطع فيديو التزييف العميق على Facebook ، يجب تمييزها على أنها تم التحقق منها بعد أن تخضع للمراجعة من قبل الشركة.

قد يأتي وقت نتوقف فيه عن اعتبار الواقع الافتراضي والواقع المعزز كتقنيات متقدمة نظرًا لمدى تقدم الذكاء الاصطناعي. يمكن دمج كل المحتوى الرقمي معًا ، لذا من الصعب معرفة ما هو أصيل وما هو غير حقيقي ، مما قد يؤدي إلى تدمير ثقتنا في عدد من أشكال الوسائط. الطريقة الوحيدة التي يمكننا من خلالها منع حدوث ذلك هي إذا عملنا جميعًا معًا كمجتمع لوضع حد لهذه الممارسات قبل أن تتاح لها أي فرصة للنجاح. ليس لدينا أي فكرة عن المدى الذي ستصل إليه تقنية التزييف العميق سواء كانت جيدة أو سيئة بالنسبة لنا ، لكن لا يمكننا أن ندعها تهدد قدرتنا على إدراك الواقع.


متى نتوقع رؤية استخدام واسع النطاق لمزيف عميق؟

Deepfakes هي مقاطع فيديو يتم إنشاؤها بواسطة الذكاء الاصطناعي أو خوارزميات التعلم الآلي. يمكن لمستخدمي Deepfake أخذ بضع ثوانٍ من الفيديو وتحويله إلى شيء يشبه الدقائق. تسمح تقنية Deepfakes للشخص العادي بإجراء مقايضات مقنعة للوجه أو انتحال للهوية الصوتية أو أي نوع آخر من التلاعب قد تشاهده في الأفلام.

من المحتمل أن نرى الاستخدام الجماعي لمزيف عميق في مرحلة ما لأن الذكاء الاصطناعي يتحسن في التعرف على الوجوه والأصوات والأشياء الأخرى التي تجعل من الممكن استخدام هذه الأنواع من التقنيات في الاتجاه السائد.

سيبدأ الجمهور في رؤية الاستخدام المتقدم لمقاطع الفيديو deepfake عندما يتم عرضها في الوقت الفعلي. هذا يعني أنه عندما تستغرق الخوارزمية أقل من بضع دقائق لإنشاء مقطع فيديو واقعي. كلما استغرق الأمر وقتًا أطول ، قل احتمال استعداد الناس للانتظار حتى يتم إنشاؤه. لن يهتم معظم الناس أو يلاحظوا ما إذا لم يكن العرض في الوقت الحقيقي حقًا لأن معظمهم توقفوا عن الاهتمام بمجرد معرفة أن شيئًا ما مزيفًا – طالما أن الخوارزمية يمكن أن تخدعهم بأعينهم بنجاح دون بذل الكثير من الجهد. إن التقدم التكنولوجي في التعرف على الوجه وخوارزميات التعلم الآلي والعرض الرقمي قد يجعل المستهلك العادي يبدأ في ملاحظة مقاطع الفيديو المزيفة ، ولكن من المحتمل أن تمر سنوات قبل حدوث ذلك.

سنبدأ في مشاهدة هذه الأنواع من مقاطع الفيديو في غضون ثلاث إلى خمس سنوات لأنه لم يكن هناك الكثير من التقدم التكنولوجي مؤخرًا وهذا مفهوم جديد نسبيًا. يمكننا بالفعل إنشاء مقاطع فيديو تقليدية مزيفة تبدو حقيقية باستخدام برامج التحرير مثل Adobe Premiere Pro و After Effects. الاختلاف الوحيد بين هذه الفيديوهات ومقاطع الفيديو المزيفة العميقة هو أننا لا نستطيع التحكم في ما يقوله الناس أو كيف يحركون أفواههم ، لذلك نحتاج إلى برنامج مثل FakeApp على سبيل المثال ، والذي يستخدم خوارزميات التعلم الآلي لأداء مقايضات الوجوه وأشياء مماثلة. سيستغرق الأمر الكثير من الوقت والمال لإنشاء محتوى كافٍ للجمهور لقبول مقاطع فيديو التعلم الآلي على أنها حقيقية. نحتاج أيضًا إلى المزيد من التطورات التكنولوجية مثل الطابعات ثلاثية الأبعاد الرخيصة وعالية الدقة التي يمكنها إنشاء رؤوس بالحجم الطبيعي دون فقد الكثير من الوضوح. أيضًا ، أعتقد أننا سنشاهد على الأرجح هذه الأنواع من مقاطع الفيديو في الأفلام قبل أن تصبح شائعة على وسائل التواصل الاجتماعي لأن عمر الأفلام أطول من بضع دقائق فقط وسيكون الناس أكثر انفتاحًا عليها إذا شاهدوها في المسارح أو في الأقل إعلانًا من قبل شركات الإنتاج الكبرى.

أنا شخصياً لا أعتقد أننا سنصل أبدًا إلى النقطة التي لن نعرف فيها مقاطع الفيديو المزيفة العميقة من الفيديوهات التقليدية ، لكنها بالتأكيد ستغير الطريقة التي ننظر بها إلى أشياء مثل المقابلات والخطابات. في رأيي ، لا يوجد الكثير الذي يمكن لأي شخص القيام به حيال هذا النوع من التكنولوجيا. ليس من غير القانوني إنشاء مقاطع فيديو مزيفة ، كما أنه ليس من غير القانوني نشرها عبر الإنترنت ، ومن المستحيل على أي شخص آخر معرفة ما إذا كان الفيديو مزيفًا أم لا إذا كان الشخص الذي ينشئه يريد أن يكون هذا الفيديو حقيقيًا.

لا أعتقد أن مستخدم Facebook العادي سيبدأ في ملاحظة مقاطع الفيديو المزيفة إلى أن يتم عرضها في الوقت الفعلي. على الرغم من أن مواقع مثل FakeApp تصنع مقاطع فيديو مزيفة باستخدام خوارزميات التعلم الآلي بدلاً من برامج التحرير التقليدية ، إلا أن إنشاء هذه الأنواع من مقاطع الفيديو صعب للغاية نظرًا لمقدار قوة الحوسبة التي تحتاجها لكل ثانية من اللقطات. ستضع الطاقة المطلوبة ضغطًا هائلاً على الخوادم والشبكات مما يعني أن إنشاء مقطع فيديو بدرجة عالية من المصداقية سيستغرق وقتًا طويلاً جدًا.

نظرًا لطبيعة مقاطع الفيديو ذات التزييف العميق ، لا أعتقد أننا سنشهد ارتفاعًا حادًا في استخدامها فور إنشائها. ليس من غير القانوني نشرها أو إعادة توزيعها عبر الإنترنت ، لذلك لا يوجد الكثير مما يمكن فعله إذا أراد شخص ما مشاركة شيء ما قام بإنشائه. في رأيي ، ستبدأ على الأرجح في أن تصبح مشكلة عندما تبدأ مواقع التواصل الاجتماعي مثل Facebook في مواجهة مشكلات مع المعلنين لاستضافة هذه الأنواع من مقاطع الفيديو لأنها قد تسبب الغضب بين المشاهدين الذين يحاولون ممارسة حياتهم اليومية دون مواجهة مقاطع فيديو مزيفة من الأصدقاء أو أفراد الأسرة. لقد تم خداع الناس بنجاح بواسطة تقنية CGI التقليدية في الماضي ، لذلك سيكون من الصعب معرفة متى يتم خداع شخص ما بواسطة خوارزمية التعلم الآلي أو يتم خداعه بسبب برنامج التحرير. أعتقد أن هذه ستصبح مشكلة عندما يبدأ الناس في فقدان الثقة فيما يرونه ويسمعونه من وسائل الإعلام ، مما قد يتسبب في انعدام الثقة في الشخصيات العامة.

لا أعتقد أننا سنشعرك بالملاحظة الكاملة للتزييف العميق حتى يكون هناك نوع من التقدم التكنولوجي الذي تم إحرازه. في الوقت الحالي ، لا يزال إنشاء مقاطع الفيديو هذه يستغرق وقتًا طويلاً للغاية وتستهلك طاقة الحوسبة بشكل مكثف ، لذا يمكنك تخيل المدة التي يستغرقها كل مقطع لعرضه. سيكون عملاً شاقًا جدًا للأشخاص الذين يريدون ملايين النسخ هناك لأنهم سيضطرون إلى القيام بذلك واحدة تلو الأخرى ، ولكن بمجرد وجود شيء يمكن أن يولدها على نطاق واسع ، أعتقد أننا سنرى بصدق حجم المشكلة هذا يمكن أن يصبح.

لا أعتقد أن الناس سيلاحظون حقًا حتى يبدأوا في أخذ زوايا الكاميرا في الاعتبار. إذا كان الشخص الذي يصنع مقاطع فيديو مزيفة قادرًا على الحصول على لقطات كافية لشخص يتحدث أو يتنقل عبر الفيديو ، فلا يهم ما إذا كان يستخدم أدوات التحرير التقليدية أو خوارزميات التعلم الآلي لأن المنتج النهائي سيبدو حقيقيًا بما يكفي لتمريره على أنه أصلي دون التفكير مليا في ذلك. على الرغم من صعوبة إنشاء مقاطع الفيديو ذات التزييف العميق في الوقت الحالي وتستغرق وقتًا طويلاً ، إلا أن التقدم التكنولوجي الذي يسمح بإنجاز المزيد من الأشياء في الوقت الفعلي سيجعل الأمر أسهل كثيرًا. في الوقت الحالي ، يشير مصطلح deepfake إلى أي مقطع فيديو تم تزويره باستخدام خوارزميات التعلم الآلي وبرامج التحرير التقليدية ، ولكن إذا كان هناك شيء قادر على القيام بالأمرين معًا ، فسنواجه مشكلة أكبر بكثير بين أيدينا.

أعتقد أن مقاطع الفيديو المزيفة لن تحظى بشعبية كبيرة حتى يجد الأشخاص طريقة سهلة لجعلها تعمل لصالحهم بدلاً من الاضطرار إلى توظيف شخص آخر بميزانية كبيرة. بغض النظر عن التكلفة أو التكلفة التي ستحصل عليها هذه الأشياء ، سيظل معظم الناس بحاجة إلى قدر كبير من الوقت والمال قبل أن يتمكنوا من إنشاء منتجاتهم المزيفة دون توظيف شخص آخر. هناك بعض الأشخاص الذين سيخرجون من أعمالهم المنزلية حيث يبيعون مقاطع الفيديو المزيفة ، لكن في الغالب أعتقد أنه حتى يصبح هذا الأمر شيئًا يمكن لأي شخص القيام به ، فلن يكون له تأثير كبير على المجتمع.

لا أعتقد أن الناس سيبدأون على نطاق واسع في استخدام مقاطع الفيديو هذه حتى يكون هناك قدر كبير من الحوافز المالية للقيام بذلك. في الوقت الحالي ، إذا كنت تريد إنشاء مقطع فيديو يحتوي على لقطات مزيفة بدون أي هدف محدد أو واضح ، فسيكون من الصعب الحصول على أي نوع من الاهتمام لأنه لن يكون هناك أي شيء يستحق الانتقاد في المقام الأول. حتى لو أراد شخص ما إنتاج واحدة من أجل المتعة ، فلا يزال هناك الوقت والقوة الحاسوبية اللازمتان لتحقيق ذلك ، لذلك لن يكون هناك الكثير من النقاط إذا لم يكن لديهم هدف في ذهنه. إذا كانت مقاطع الفيديو هذه قادرة على أن تصبح مقنعة للغاية على نطاق واسع ، فأعتقد أن الناس سيبدأون في استخدامها لأغراض سلبية بهدف كسب المال.

لا أعتقد أن مقاطع الفيديو المزيفة ستصبح شائعة حقًا حتى يتمكن الأشخاص من إنتاج مقاطع تستند إلى المحادثة تلقائيًا. في الوقت الحالي ، تعد معظم الصور المقلدة صورًا ثابتة يتم تعديلها أو إعادة ترتيبها بالكامل لتناسب أي غرض تم إنشاؤها من أجله. إذا كانت خوارزميات التزييف العميق قادرة على محاكاة المزيد من حركات الحياة الواقعية مثل مزامنة الشفاه أو اختصارات الإيماءات ، فأعتقد أنها ستفتح عالمًا جديدًا بالكامل من الاحتمالات حيث يمكن للناس إنشاء منتج نهائي أكثر إقناعًا. إذا كان الفيديو قادرًا على تقليد حركات الحياة الواقعية التي تتحدث ، فيمكنني أن أتخيل أنها ستصبح شائعة جدًا كطريقة لتضليل أو تشهير شخص ما دون أي عواقب لأنه لا يمكن لأي شخص في الواقع التحقق مما إذا كانت حقيقية أم لا.

Related Articles

WP Radio
WP Radio
OFFLINE LIVE