الذكاء الاصطناعي
ضمان الأصالة مع بزوغ فجر الذكاء الاصطناعي
تلتزم Securities.io بمعايير تحريرية صارمة، وقد تتلقى تعويضات عن الروابط المُراجعة. لسنا مستشارين استثماريين مُسجلين، وهذه ليست نصيحة استثمارية. يُرجى الاطلاع على كشف التابعة لها.

يتزايد اعتماد الذكاء الاصطناعي في جميع مناحي الحياة. وتشير التقديرات إلى أن السوق من المتوقع أن يتضاعف ثلاثة أضعاف خلال السنوات السبع المقبلة.
من حجم يقارب 242 مليار دولار أمريكي، من المتوقع أن ينمو إلى ما يقارب 740 مليار دولار أمريكي بحلول عام 2030. وقد بدأت قطاعات مختلفة بدمج الذكاء الاصطناعي في عملياتها. وكانت القطاعات التي استفادت منه أكثر من غيرها حتى الآن هي الرعاية الصحية. تمويلوالتصنيع والخدمات التجارية والقانونية، وما إلى ذلك.
وبدرجة أقل، بدأ الذكاء الاصطناعي في تغيير النماذج التشغيلية في صناعات مثل وسائل الإعلام والترفيه والأمن وتجارة التجزئة والطاقة وما إلى ذلك.
مع زيادة اعتماد الذكاء الاصطناعي، برز التحدي المتمثل في ضمان الأصالة كقضية مهمة تحتاج إلى معالجة فورية. نبدأ مناقشتنا اليوم بالنظر إلى ماهية هذه التحديات.
انقر هنا لمعرفة كل شيء عن الاستثمار في الذكاء الاصطناعي.
تحديات الأصالة في اعتماد الذكاء الاصطناعي
ما كانت قوة الذكاء الاصطناعي نقطة ضعفه، فقد برزت. خوارزميات الذكاء الاصطناعي قادرة على توليد صور ومقاطع فيديو ومقالات واقعية، وأي شكل آخر من أشكال محتوى الوسائط المتعددة، قد يصعب على المشاهد العادي تمييزه عن المحتوى الأصلي.
بالنسبة للعين العادية، قد تبدو كمعلومات أصلية من مصدر حسن السمعة، بينما في الواقع، يمكن أن تكون عكس ذلك تمامًا: محتوى مزيف تم إنشاؤه للدعاية الضارة. لقد وقعت العديد من الأحداث في الماضي القريب والتي كشفت هذا الجانب من الاعتماد المتزايد للذكاء الاصطناعي.
صورة وهمية لانفجار البنتاغون تم إنشاؤها بواسطة الذكاء الاصطناعي
في مايو 2023، نُشرت أخبار عن انفجار بالقرب من البنتاغون في الولايات المتحدة. وأظهرت الصورة الكثير من الدخان الأسود يخرج من الحديقة القريبة من مبنى البنتاغون. تمت مشاركة هذه الصورة بواسطة حساب تويتر المعتمد، Bloomberg Feed، والذي كان يحمل علامة زرقاء. وبعد فترة وجيزة، شاركت العديد من الحسابات التي تم التحقق منها والتي تحمل علامات الاختيار الزرقاء الصورة أيضًا. ومع ذلك، فقد كانت صورة تم إنشاؤها بواسطة الذكاء الاصطناعي، وقد خدعت الكثيرين. أدت السياسة الأخيرة التي اتبعتها X لإتاحة العلامات الزرقاء مقابل رسوم شهرية قدرها 8 دولارات أمريكية إلى تفاقم المشكلة.
ونظرًا لأنه يمكن لأي شخص أن يكون لديه حساب تم التحقق منه والحصول على مزيد من الظهور للحسابات التي تم التحقق منها، انتشرت الأخبار بسرعة، مما أثار مخاوف الشخصيات العامة المنتحلة والمسؤولين الحكوميين والمواقع الإخبارية، مما أدى إلى حدوث فوضى وأزمة صحة في المجال الرقمي.
على الرغم من أنه من الصعب التعرف على الصورة على أنها تم إنشاؤها بواسطة الذكاء الاصطناعي بواسطة مستخدم عام لوسائل التواصل الاجتماعي X، إلا أن بعض الباحثين في مجال الذكاء الاصطناعي تمكنوا من تحديد العيوب أو المخالفات.
وفقًا نيك ووترز, أحد باحثي الذكاء الاصطناعي:
"أظهر الاندماج "غير العادي" لسياج المبنى مع حواجز الحشود أن الصورة ربما تم صنعها أو التلاعب بها بشكل مصطنع."
إلا أن التزوير حقق غرضه، ولو للحظة وجيزة، من خلال خلق الفوضى والارتباك على وسائل التواصل الاجتماعي وخارجها.
الآلاف من الصور المزيفة على Adobe Stock
وفقًا تقرير نُشر في صحيفة واشنطن بوست، انتشرت صورٌ مُعدّلةٌ بالذكاء الاصطناعي على نطاقٍ واسع. أسفر بحثٌ على Adobe Stock باستخدام مصطلح "حرب أوكرانيا" عن أكثر من 15,000 صورةٍ مُزيّفةٍ للصراع. كما أشار التقرير إلى وجودٍ كثيفٍ لمئاتٍ من صور الذكاء الاصطناعي لأشخاصٍ شاركوا في احتجاجات حركة "حياة السود مهمة"، والتي لم تُقام قط.
كانت العشرات من الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي متاحة أيضًا لحرائق ماوي البرية. وكانت العديد من هذه الصور تشبه صورًا حقيقية التقطها مصورون صحفيون عن كثب بحيث يصعب فصل الصور المزيفة عن الصور الحقيقية.
حالة المقاطع الإخبارية التي تبدو واقعية
وفقا لتقرير آخر نشرته فوربس على المنتجات المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، يعد نجم Tiktok وYouTube Krishna Sahay واحدًا من بين العديد من مستخدمي وسائل التواصل الاجتماعي الذين يستخدمون الذكاء الاصطناعي لإنشاء مقاطع إخبارية تبدو حقيقية لكبار المذيعين من وسائل الإعلام الإخبارية الرئيسية الرئيسية التي يحمل عملها الكثير من المصداقية.
من CBS إلى CNN إلى BBC، يقع العديد من مذيعي وكالات الأنباء هذه في هذه القائمة. تُعرف مقاطع الفيديو هذه أيضًا باسم مقاطع الفيديو المزيفة العميقة، حيث تساعد خوارزميات الذكاء الاصطناعي التوليدية القوية في إنشاء محتوى سمعي بصري يشبه المذيعين أنفسهم.
وفقًا للتقرير، يمتلك كريشنا ساهي وحده ملايين المشاهدين. تتضمن فيديوهات ساهي تعليقاتٍ مثيرة للجدل لمذيعين مزيفين مُتلاعب بهم بالذكاء الاصطناعي حول قضايا حساسة، مثل حوادث إطلاق النار في المدارس، والهجمات الإرهابية، والجرائم الإجرامية، وغيرها.
وفقًا لهاني فريد، خبير التزييف العميق والأستاذ بجامعة كاليفورنيا في بيركلي، فإن مقاطع الفيديو هذه تستغل شعبية ومصداقية مذيعي الأخبار المعروفين باعتبارها "وسيلة مقنعة لتقديم المعلومات المضللة".
وبحسب البروفيسور فريد: “في كثير من الحالات، يكون المذيعون معروفين للمشاهدين وموثوقين، وحتى لو لم يكن الأمر كذلك، فإن تنسيق الأخبار العام مألوف وبالتالي أكثر ثقة”. وهو يعتقد أن وقف هذا التهديد يتطلب منا "أن نكون أكثر جدية في حماية حقوق الأشخاص الذين يتم اختيار أمثالهم وأصواتهم".
تزييف عميق من حرب غزة
وشهدت شبكة الإنترنت أيضًا غزوًا كبيرًا لمقاطع الفيديو المزيفة العميقة المتعلقة بحرب غزة. وفي الاستجابة لهذا التحدي، كان جان كلود جولدنستين، الرئيس التنفيذي لشركة CREOpoint، وهي شركة تكنولوجيا متخصصة في الذكاء الاصطناعي، فعالا في تقييم صحة مثل هذا المحتوى. وإدراكًا لخطورة الوضع، قامت الشركة بتطوير قاعدة بيانات لأكثر التزييفات العميقة انتشارًا والتي ظهرت من غزة، مما يمثل خطوة حاسمة في معالجة هذا التهديد الرقمي.
وفقا لغولدنشتاين:
"الصور والفيديو والصوت: مع الذكاء الاصطناعي التوليدي، سيكون الأمر بمثابة تصعيد لم تشهده من قبل."
غالبًا ما تعيد مقاطع الفيديو هذه استخدام المحتوى من الصراعات القديمة. إنهم يسعون إلى توليد استجابة عاطفية قوية من خلال زيادة حدة الكارثة.
وبعيدًا عن معرفة الذكاء الاصطناعي التوليدي من الداخل والخارج، فإن فرق إنشاء المحتوى المزيف العميق هذه تحتوي على أشخاص على دراية بعلم النفس البشري وكيفية استهداف أعمق دوافع الناس ومخاوفهم.
في أيدي دعاة الدعاية، أو أصحاب نظريات المؤامرة، أو الإرهابيين، أو المنظمات المخادعة، تطورت أدوات الذكاء الاصطناعي لإنشاء المحتوى المزيف لتصبح واحدة من أكثر الأسلحة فتكًا. وتتزايد الحاجة إلى إبقائهم تحت المراقبة مع مرور كل يوم.
إحدى أكثر الطرق فعالية لمكافحة هذا التهديد المتزايد هي التأكد من صحة المصدر. جهود البحث وبناء الحلول لضمان الأصالة تسير على قدم وساق. وفيما يلي بعض الأمثلة من واقع الحياة.
كيف يمكنك التأكد من صحة المحتوى في عصر الذكاء الاصطناعي؟
تقنية المصادقة داخل الكاميرا من سوني
شركة Sony Electronics على وشك التوصل إلى حل جديد. لقد أكملت الجولة الثانية من اختبارها تقنية الأصالة داخل الكاميرا بالتعاون مع وكالة أسوشيتد برس.
تهدف هذه التقنية إلى تزويد الصور الملتقطة بشهادة ميلاد تُثبت صحة مصدر المحتوى. وبشكل أكثر تحديدًا، ستكون هذه الشهادة توقيعًا رقميًا آليًا يُنتج داخل الكاميرا لحظة التقاط الصورة باستخدام شريحة الأجهزة.
وفقًا لنيل مانويتز، الرئيس والمدير التنفيذي للعمليات في شركة Sony Electronics، "لقد أظهرت تقنية الأصالة داخل الكاميرا نتائج قيمة"، وستواصل الشركة "دفع تطويرها نحو إصدار أوسع".
اكتمل الاختبار الميداني المشترك بين سوني إلكترونيكس وAP في أكتوبر من هذا العام. وكان الهدف من هذه الجولة من الاختبار تقييم كفاءة مصادقة الالتقاط وسير العمل المرتبط بها.
كان المتعاون الثالث في هذا المشروع هو CameraBits، المعروف بإنشاء أداة سير العمل المتوافقة مع معايير الصناعة PhotoMechanic.
كان الدور الذي لعبته CameraBits في هذا التعاون هو تقديم التكنولوجيا اللازمة للحفاظ على التوقيع الرقمي للكاميرا من خلال عملية تحرير البيانات الوصفية.
وفقًا لديفيد آكي، مدير التصوير في وكالة أسوشيتد برس، "تُشكّل الصور المزيفة والمُضلّلة مصدر قلق كبير للمؤسسات الإخبارية. فهي لا تُساهم في نشر المعلومات المُضلّلة فحسب، بل تُقوّض في نهاية المطاف ثقة الجمهور بالصور الواقعية والدقيقة".
سيتم إصدار تقنية التوقيع والمصادقة داخل الكاميرا كتحديث للبرنامج الثابت في نماذج متعددة في ربيع عام 2024.
شركة مجموعة سوني (SONY -0.52٪)
تبلغ القيمة السوقية لشركة Sony Group Corporation 106.35 مليار دولار أمريكي، ونسبة السعر إلى الربحية 19.49، وفي عام 2022، حققت إيرادات بقيمة 82.64 مليار دولار أمريكي.
تكنولوجيا لمكافحة التلاعب الصوتي العميق
حفزت التقنيات القائمة على الذكاء الاصطناعي التطورات في تركيب الكلام الواقعي. في شكلها الأصلي المقصود، يمكن للتكنولوجيا أن تفعل الكثير من الخير. ويمكن أن يساعد في ابتكار مساعدين صوتيين مخصصين وأدوات اتصال أخرى تعزز إمكانية الوصول. ومع ذلك، على الجانب الآخر، يستخدمه الكثيرون لإنشاء أصوات لمقاطع فيديو مزيفة عميقة.
وللرد على هذا التهديد، قال نينج تشانغ، الأستاذ المساعد لعلوم الكمبيوتر والهندسة في كلية ماكيلفي للهندسة بجامعة واشنطن: قامت بتطوير أداة اسمها AntiFake. إنها ليست أداة تخفيف تساعد في اكتشاف ما بعد الهجوم. بل هي بالأحرى أداة استباقية تهدف إلى القضاء على المشكلة في مهدها.
وفقا للبروفيسور تشانغ:
"تتأكد AntiFake من أنه عندما ننشر بيانات صوتية، يكون من الصعب على المجرمين استخدام هذه المعلومات لتوليف أصواتنا وانتحال هويتنا."
في خطوة مثيرة للاهتمام لمكافحة مجرمي الإنترنت المتطورين، قرر البروفيسور تشانغ أن يسدد لهم عملاتهم المعدنية. وفقا له:
"تستخدم الأداة تقنية الذكاء الاصطناعي المعادية التي كانت في الأصل جزءًا من مجموعة أدوات مجرمي الإنترنت، ولكننا الآن نستخدمها للدفاع ضدهم."
مبدأ التشغيل الأساسي لـ AntiFake هو تشويه الإشارة الصوتية المسجلة قليلاً. تتم معايرة طبيعة التشويه بدقة شديدة، بحيث أنه على الرغم من أنه يبدو صحيحًا للآذان البشرية، إلا أنه ينتقل كشيء مختلف تمامًا عن الذكاء الاصطناعي.
وفقًا للبيانات المتاحة للعامة، أظهرت AntiFake معدل حماية يزيد عن 95%. وقد أثبت أيضًا فعاليته في الوصول إلى مجموعات سكانية متنوعة.
استخدام Blockchain في ضمان الأصالة
أوارو للحلول الإعلامية الاستفادة من خصائص ثبات blockchain لمحاربة التهديد المزيف العميق. فهو يساعد في إنشاء مسار بيانات غير قابل للتغيير للشركات والسلطات الحاكمة والمستخدمين الأفراد لمصادقة أي صورة أو مقطع فيديو.
طريقة عمل Oaro Media على الهاتف المحمول بسيطة، لكنها فعّالة للغاية. يبدأ المستخدم بالوصول إلى كاميرا الهاتف عبر رابط رسالة نصية قصيرة أو تطبيق شركة التأمين. بعد ذلك، تُصدر شهادة للمحتوى المرئي، تتضمن سجلاً لا يمكن تزويره لمعرّف المستخدم، والمحتوى، والطابع الزمني، وإحداثيات نظام تحديد المواقع العالمي (GPS). تساعد هذه العملية قطاع التأمين على التحقق من صحة المطالبات وتمييز المطالبات المزيفة المُولّدة بالذكاء الاصطناعي عن الحقيقية.
وقف استخدام Deepfakes كجزء من حرب المعلومات
الحارس تُساعد حلول وخدمات مكافحة التزييف العميق الحكومات الديمقراطية ووكالات الدفاع والمؤسسات على حماية مواردها من آثار محتوى الذكاء الاصطناعي المُولّد بشكل ضار. وقد تعاونت الشركة مع الاتحاد الأوروبي ووزارة الشؤون الاقتصادية والاتصالات في جمهورية إستونيا. ومع ذلك، فهو حلٌّ لما بعد الهجوم يُساعد على كشف التزييف العميق فور انتشاره.
آلية عملها بسيطة ومُكوّنة من أربع خطوات. في الخطوة الأولى، يُحمّل المستخدم الوسائط الرقمية عبر موقع Sentinel الإلكتروني أو واجهة برمجة التطبيقات (API). يُحلّل نظام Sentinel الوسائط تلقائيًا للكشف عن أي تزييف باستخدام الذكاء الاصطناعي. ثم يُصدر حكمًا بشأن ما إذا كانت الوسائط مُزيّفة بعمق أم لا. وأخيرًا، لتوضيح كيفية سير العملية، يُعرض تصورًا لعملية التلاعب.
ضمان الأصالة وسط الذكاء الاصطناعي: سيناريو الابتكار المزدهر للمستقبل
يعد المحتوى غير الحقيقي الذي ينتجه الذكاء الاصطناعي أداة فعالة لتشويه الواقع ونشر الدعاية الشريرة. مثل هذا المحتوى، حتى عندما يتم إنشاؤه لأسباب تبدو حميدة مثل النكتة أو الإعجابات على وسائل التواصل الاجتماعي، يمكن أن يحرض على العنف على نطاق واسع.
يمتد تأثيره ليشمل تنامي انعدام الثقة في مجالات مختلفة، بدءًا من العلاقات الدبلوماسية بين الدول، وصولًا إلى التفاعلات بين شركات الخدمات ومستخدميها، وحتى العلاقات الشخصية. لذا، يُعدّ إدراك الباحثين والعلماء في مجال التكنولوجيا عالميًا لمخاطر المحتوى المزيف غير الخاضع للرقابة مؤشرًا إيجابيًا. وقد سبق أن سلّطنا الضوء على العديد من المبادرات التي تعالج هذه المشكلة.
هناك أكثر من ذلك بكثير. كثافةعلى سبيل المثال، تعمل على تطوير منصة لاستخبارات التهديدات المرئية. واجهة برمجة التطبيقات (API) الخاصة بها قادرة بالفعل على اكتشاف أحدث تقنيات المعالجة والتوليف القائمة على الذكاء الاصطناعي. انطلاقة أخرى، سلامة الكم، توصلت إلى حلول SaaS AI التي يمكنها اكتشاف تزوير الصور والفيديو.
سيستمر مجرمو الإنترنت في ابتكار تقنيات جديدة لخداعنا. لكن العديد من الشركات ستكون قادرة على استباقها وإحباطها. ومع استمرار الابتكار بوتيرة ثابتة، لم تعد المعركة معركة ديفيد ضد جالوت بعد الآن.












