×

اضغط هنا إن لم يقم المتصفح بتحويلك آليًا.

سدايا تعزز الاستخدام المسؤول للذكاء الاصطناعي عبر مبادئ التزييف العميق

سدايا تعزز الاستخدام المسؤول للذكاء الاصطناعي عبر مبادئ التزييف العميق
الحقيقة - الرياض 
أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" وثيقة "مبادئ التزييف العميق"؛ بهدف تعزيز الاستخدام المسؤول لتقنيات الذكاء الاصطناعي والحد من المخاطر المرتبطة بالمحتوى الرقمي المضلل.

وأوضحت الوثيقة أن تقنيات التزييف العميق تعتمد على الذكاء الاصطناعي والتعلم العميق لإنتاج صور ومقاطع فيديو وتسجيلات صوتية تبدو واقعية، ما يجعل اكتشاف التلاعب أكثر صعوبة مع التطور المتسارع للتقنيات الحديثة.
وأكدت أن لهذه التقنيات استخدامات إيجابية في مجالات التعليم والرعاية الصحية والترفيه والتسويق وصناعة المحتوى، إلا أنها قد تُستغل في الاحتيال المالي، وانتحال الشخصيات، ونشر المعلومات المضللة، والتأثير على الرأي العام، إضافة إلى الإضرار بخصوصية الأفراد وسمعتهم.
وبيّنت الوثيقة أن من أبرز المخاطر استخدام تقنيات تقليد الأصوات والوجوه في عمليات احتيالية أو تضليل إعلامي عبر تسجيلات ومكالمات مزيفة يصعب كشفها بالوسائل التقليدية.

وشددت "سدايا" على أهمية التزام مطوري تقنيات التزييف العميق وصناع المحتوى بالمعايير الأخلاقية والتنظيمية، من خلال حماية البيانات الشخصية، والحصول على الموافقات اللازمة، وتطبيق وسائل تقنية مثل العلامات المائية الرقمية وأنظمة التحقق والرقابة المستمرة للحد من إساءة الاستخدام..
التعليقات