التفاعل بين الخصوصية وتعلّم الآلة والذكاء الاصطناعي
مقابلة مع بين لوريكا، كبير علماء البيانات، شركة O’Reilly Media
يحدد التقرير الاتجاهات الحالية في أبحاث الذكاء الاصطناعي. ما الذي يحفّز الابتكار في الوقت الراهن حسب رأيك؟
لقد عززت الاختراقات المعرفية في الأجهزة وتعليم الآلات، لا سيما طريقتي التعلم العميق والتعلم المعزز، عودة الاهتمام بالذكاء الاصطناعي. وكلتا الطريقتين هي من الطرق المتعطشة للبيانات، ولا يمكن التقليل من أهمية توليد وجمع البيانات (المعنونة) لتدريب هذه الخوارزميات.
وقد أصبحت خصوصية البيانات قضية مركزية للمستخدمين والمشرّعين في هذا العصر. ويطالب المستخدمون بمزيد من الشفافية والتحكم في كيفية جمع البيانات وتخزينها واستخدامها ومشاركتها.
بين لوريكا
وقد أصبحت خصوصية البيانات قضية مركزية للمستخدمين والمشرّعين في هذا العصر. ويطالب المستخدمون بمزيد من الشفافية والتحكم في كيفية جمع البيانات وتخزينها واستخدامها ومشاركتها. وأدخلت الهيئات التنظيمية المشرّعة في العديد من المناطق قواعد تنظيمية خاصة بالبيانات: فعلى سبيل المثال، أدرج نظاما أوروبا (النظام الأوروبي لحماية البيانات العامة (GDPR)) وكاليفورنيا (قانون خصوصية المستهلك) مفاهيم مثل الشفافية و"تحكم المستخدم" و"الخصوصية حسب التصميم" ضمن أولويات الشركات التي تريد نشر منتجات البيانات.
كيف تحوّل المؤسسات التحليلات إلى خدمات في عصر أصبحت فيه خصوصية البيانات مسألة جوهرية؟
تستخدم المؤسسة النموذجية البيانات لتوجيه نشاطين أساسيين: تحسين عملية اتخاذ القرار (من خلال ذكاء الأعمال) أو تمكين التشغيل التلقائي (باستخدام تعليم الآلة والذكاء الاصطناعي). واتضح أن هناك مجموعة من الأساليب والأدوات الناشئة التي تحافظ على الخصوصية لبناء أنظمة تعتمد على ذكاء الأعمال وتعليم الآلة.
ففي العديد من الحالات يعتمد ذكاء الأعمال على قاعدة بيانات. وقد أثمر التعاون بين أوبر و مخبر (RISE Lab) في جامعة بيركلي عن أداة مفتوحة المصدر تتيح للمحللين إرسال طلبات البحث والحصول على النتائج التي تلتزم بأحدث نظم الخصوصية التفاضلية (وهي ضمان رسمي يوفر تطمينات موثوقة بشأن الخصوصية). وتمهّد هذه الأداة مفتوحة المصدر الطريق للحفاظ على سرية المعلومات التجارية داخل العديد من المؤسسات. ومن المذهل أكثر أنّ هذه الخصوصية التفاضلية يمكن أن تشمل ملايين الأجهزة التي تولد البيانات بشكل آني. فقد قامت شركات Apple و Microsoft وGoogle بإنشاء تحليلات أعمال تحافظ على الخصوصية للخدمات التي تدعم الهواتف المحمولة وأجهزة القياس الذكية.
ويعمل الباحثون ورواد الأعمال بنشاط على بناء أساليب وأدوات للحفاظ على الخصوصية في الذكاء الاصطناعي. ولطالما اعترف مجتمع تعليم الآلة بأن تقنيات إخفاء البيانات البسيطة يمكن أن تضع خصوصية المستخدمين في خطر (مثال مبكر هو هجمات كشف الهوية في جائزة Netflix). ونورد أدناه بعض التقنيات الحديثة للحفاظ على الخصوصية في تعليم الآلة:
- التعلم المتحد: تقدمه Google، ويسمح بتدريب نموذج مركزي لتعليم الآلة دون مشاركة البيانات، ويلائم خدمات الأجهزة المحمولة.
- الخصوصية التفاضلية: لا يزال التفاعل بين الخصوصية التفاضلية وتعليم الآلة مجالًا نشطًا للبحث، وقد بدأ الباحثون في دراسة نماذج التعليم العميق التي تلتزم بالخصوصية التفاضلية.
- التشفير المتجانس: مجال وليد يهدف إلى تطوير فئة من الأدوات التي تسمح بحوسبة النماذج المعقدة عبر البيانات المشفرة. وبدأ العمل التمهيدي في تقنيات رؤية الحاسوب وفهم الكلام.
- اللامركزية: مجال تحرّكه الشركات الناشئة التي تتطلع إلى استخدام سلاسل الكتل والسجلات الموزعة والهياكل التحفيزية التي تستخدم العملات المشفرة. وعلى سبيل المثال، تعمل شركة Computable Labs على بناء بنية مفتوحة المصدر لا مركزية تسمح للشركات بتشارك البيانات والنماذج بشكل آمن. ويحاولون بذلك "جعل شبكات سلاسل الكتل متوافقة مع حوسبة تعليم الآلة".
وفي حين يشدد المستخدمون والمنظمون على أهمية شركات خصوصية البيانات، يحشد مجتمع البيانات من أجل بناء أدوات الحفاظ على الخصوصية لأنظمة الذكاء الاصطناعي في المستقبل القريب.
ما هي الكتابات الوجيهة عن هذا الموضوع؟
- جمع البيانات وأسواق البيانات في عصر الخصوصية وتعليم الآلة
- ابتكار أدوات لتطبيقات الذكاء الاصطناعي المستقبلية: فنحن حاليًا نضع الأسس للأجيال المستقبلية من تطبيقات الذكاء الاصطناعي، ولكننا لم نحقق ذلك بعد
- أثر تعليم الآلة على تطوير البرمجيات