التفاعل بين الخصوصية وتعلّم الآلة والذكاء الاصطناعي

مقابلة مع بين لوريكا، كبير علماء البيانات، شركة O’Reilly Media

يحدد التقرير الاتجاهات الحالية في أبحاث الذكاء الاصطناعي. ما الذي يحفّز الابتكار في الوقت الراهن حسب رأيك؟

لقد عززت الاختراقات المعرفية في الأجهزة وتعليم الآلات، لا سيما طريقتي التعلم العميق والتعلم المعزز، عودة الاهتمام بالذكاء الاصطناعي. وكلتا الطريقتين هي من الطرق المتعطشة للبيانات، ولا يمكن التقليل من أهمية توليد وجمع البيانات (المعنونة) لتدريب هذه الخوارزميات.

وقد أصبحت خصوصية البيانات قضية مركزية للمستخدمين والمشرّعين في هذا العصر. ويطالب المستخدمون بمزيد من الشفافية والتحكم في كيفية جمع البيانات وتخزينها واستخدامها ومشاركتها.

بين لوريكا

وقد أصبحت خصوصية البيانات قضية مركزية للمستخدمين والمشرّعين في هذا العصر. ويطالب المستخدمون بمزيد من الشفافية والتحكم في كيفية جمع البيانات وتخزينها واستخدامها ومشاركتها. وأدخلت الهيئات التنظيمية المشرّعة في العديد من المناطق قواعد تنظيمية خاصة بالبيانات: فعلى سبيل المثال، أدرج نظاما أوروبا (النظام الأوروبي لحماية البيانات العامة (GDPR)) وكاليفورنيا (قانون خصوصية المستهلك) مفاهيم مثل الشفافية و"تحكم المستخدم" و"الخصوصية حسب التصميم" ضمن أولويات الشركات التي تريد نشر منتجات البيانات.

كيف تحوّل المؤسسات التحليلات إلى خدمات في عصر أصبحت فيه خصوصية البيانات مسألة جوهرية؟

تستخدم المؤسسة النموذجية البيانات لتوجيه نشاطين أساسيين: تحسين عملية اتخاذ القرار (من خلال ذكاء الأعمال) أو تمكين التشغيل التلقائي (باستخدام تعليم الآلة والذكاء الاصطناعي). واتضح أن هناك مجموعة من الأساليب والأدوات الناشئة التي تحافظ على الخصوصية لبناء أنظمة تعتمد على ذكاء الأعمال وتعليم الآلة.

ففي العديد من الحالات يعتمد ذكاء الأعمال على قاعدة بيانات. وقد أثمر التعاون بين أوبر و مخبر (RISE Lab) في جامعة بيركلي عن أداة مفتوحة المصدر تتيح للمحللين إرسال طلبات البحث والحصول على النتائج التي تلتزم بأحدث نظم الخصوصية التفاضلية (وهي ضمان رسمي يوفر تطمينات موثوقة بشأن الخصوصية). وتمهّد هذه الأداة مفتوحة المصدر الطريق للحفاظ على سرية المعلومات التجارية داخل العديد من المؤسسات. ومن المذهل أكثر أنّ هذه الخصوصية التفاضلية يمكن أن تشمل ملايين الأجهزة التي تولد البيانات بشكل آني. فقد قامت شركات Apple و Microsoft وGoogle بإنشاء تحليلات أعمال تحافظ على الخصوصية للخدمات التي تدعم الهواتف المحمولة وأجهزة القياس الذكية.

ويعمل الباحثون ورواد الأعمال بنشاط على بناء أساليب وأدوات للحفاظ على الخصوصية في الذكاء الاصطناعي. ولطالما اعترف مجتمع تعليم الآلة بأن تقنيات إخفاء البيانات البسيطة يمكن أن تضع خصوصية المستخدمين في خطر (مثال مبكر هو هجمات كشف الهوية في جائزة Netflix). ونورد أدناه بعض التقنيات الحديثة للحفاظ على الخصوصية في تعليم الآلة:

وفي حين يشدد المستخدمون والمنظمون على أهمية شركات خصوصية البيانات، يحشد مجتمع البيانات من أجل بناء أدوات الحفاظ على الخصوصية لأنظمة الذكاء الاصطناعي في المستقبل القريب.

ما هي الكتابات الوجيهة عن هذا الموضوع؟