الذكاء الإصطناعي

كشف باحثون من معهد جورجيا التقني في الولايات المتحدة عن تطوير نموذج ذكاء اصطناعي مبتكر يحمل اسم "Chameleon"، يهدف إلى حماية خصوصية الأفراد من خلال إخفاء معالم الصور الشخصية دون التأثير على جودتها.
ووفق تقرير نشره موقع "لايف ساينس"، تعمل الأداة على تعطيل أنظمة التعرف على الوجه، مما يضمن بقاء الصور الشخصية آمنة من الاستخدام أو التعرف غير المصرح به.
ويقوم النموذج بإنشاء "قناع حماية خصوصية شخصي" (P-3 Mask) فريد لكل مستخدم، يمنع برمجيات التعرف على الوجه من تحديد الهوية، ويجعل الصور تُصنّف بشكل خاطئ على أنها تخص شخصًا آخر.
ونقل الموقع عن أستاذة الحوسبة المعتمدة على البيانات والذكاء الاصطناعي في مدرسة علوم الحاسوب بالمعهد، لينغ ليو، قولها إن "أدوات حماية الخصوصية مثل Chameleon ضرورية لتعزيز الحوكمة المسؤولة للذكاء الاصطناعي، ودعم الابتكار العلمي المسؤول".
معالجة تحديات الخصوصية الرقمية
وأصبحت تقنية التعرف على الوجه جزءًا من الحياة اليومية، سواء في تأمين الهواتف الذكية أو أنظمة المراقبة.
ورغم فوائدها، تثير هذه التقنية مخاوف متزايدة تتعلق بسوء الاستخدام، مثل سرقة الهوية، والتتبع الرقمي غير المصرح به، وإنشاء قواعد بيانات للإعلانات المستهدفة أو الهجمات الإلكترونية.
ويتميز نموذج "Chameleon" بثلاث وظائف رئيسية لمعالجة هذه التحديات، هي:
آفاق مستقبلية واسعة
وبحسب الموقع، يتطلع فريق البحث إلى تطبيق تقنيات "Chameleon" خارج نطاق حماية الصور الشخصية.
وأوضح طالب الدكتوراة المشارك في المشروع، تيانشينغ هوانغ، أن الأداة يمكن أن تُستخدم لحماية الصور من استغلالها في تدريب نماذج الذكاء الاصطناعي التوليدية دون موافقة.
وأشار هوانغ إلى أن "هذه التقنية تُمكّن من حماية المعلومات البصرية من الاستخدام غير المصرح به، مما يعزز الخصوصية الرقمية في عصر التكنولوجيا المتقدمة".
ومع تزايد استخدام أنظمة التعرف على الوجه، تمثل أدوات مثل "Chameleon" خطوة مهمة نحو تمكين الأفراد من التحكم ببياناتهم الشخصية بشكل أفضل، وفق تقرير الموقع.



