رغم قلة عدد الشركات التي يمكن أن تسمّي نفسها "شركات الذكاء الاصطناعي"، فإن جميع الشركات ستحتاج إلى وضع استراتيجية للذكاء الاصطناعي، لأنّ الذكاء الاصطناعي سيغزو كل مجال من نظام التشغيل البسيط إلى الروبوتات والسيارات والرعاية الصحية المنزلية والترفيه.
وقد تضيع قيمة علامة تجارية كبيرة إن اتخذت قرارات خاطئة بشأن استخدام الذكاء الاصطناعي. ولذلك فمن المهم البدء في التفكير في مختلف آليات الحوكمة التنظيمية وغيرها في الوقت الحالي.
كاي فيرث - بترفيلد
لا تستثمر الشركات حاليًا الكثير في البحث والتطوير والذكاء الاصطناعي بقدر ما ينبغي لها أن تفعل. والأسباب الأساسية تتمثل في ثلاثة مجالات: عدم فهم التكنولوجيا وقدراتها، وأن بعض هذه التكنولوجيات لا تزال حديثة العهد وليست مفيدة بشكل عام، وقلة الدراية بمصدر اللوائح ومجالات التطوير التي ستطالها هذه اللوائح. ونتيجة لذلك، قد نرى بعض الشركات وهي تسعى إلى استخدام الذكاء الاصطناعي في أماكن لا تستدعي استخدامه، مثل التعرف على الوجوه في مجال التكييف، ونرى شركات أخرى تحجم عن استخدام الذكاء الاصطناعي وتنتظر إلى أن تتضح مساحة الابتكار وكيف قد تدعمها الحكومات.
ويبدي كثير من الشركات قلقا من أن الاستخدام غير الموجّه للذكاء الاصطناعي قد يؤدي إلى خسائر كبيرة في الوظائف على المدى القصير. وترغب الشركات الواعية اجتماعيا في إيجاد طريقة لتقليل أثر هذا الاضطراب الذي سيصيب قوتها العاملة والاستقرار السياسي للمنطقة. وفي العديد من مناطق العالم التي لم تخفف من وطأة فقدان الوظائف عن طريق إعادة التدريب، لم يكن التغيير الجغرافي السياسي وغياب الاستقرار في الأسواق مفيدا للأنشطة التجارية بشكل عام. وقد بدأت بعض الشركات باستخدام الذكاء الاصطناعي في الموارد البشرية. وهو ما يستدعي أن تكون الشركات على دراية بالمشاكل المحتملة لاستخدام الذكاء الاصطناعي في هذا المجال وغيره. وتنقسم هذه المشكلات إلى أربع فئات رئيسية: التحيز والشفافية والمساءلة والخصوصية.
وقد تضيع قيمة علامة تجارية كبيرة إن اتخذت قرارات خاطئة بشأن استخدام الذكاء الاصطناعي. ولذلك فمن المهم البدء في التفكير في مختلف آليات الحوكمة التنظيمية وغيرها في الوقت الحالي، لإن الوتيرة السريعة للتغيرات في هذه التكنولوجيا في تصاعد مستمر.
ليس من الضروري أن تكون المجالات التي فيها سيُحدث فيها الذكاء الاصطناعي أكبر الاضطرابات وتلك التي سيكون له فيها أعمق الأثر هي ذاتها. فالأمر يعتمد على الأثر، هل نقصد به أثرا جيدا أم سيئا. وسأوضح ذلك بمثالين:
(1) ألعاب الأطفال القائمة على الذكاء الاصطناعي - سيتعامل أطفالنا بشكل متزايد مع الروبوتات. وبالتالي، يمكن القول أن وجود هذه الألعاب في حياة الأطفال من سن مبكرة سيكون إعدادا مفيدا للغاية للقوة العاملة المستقبلية. وكذلك فوائد التعليم الشخصي لجميع الأطفال حول العالم ستكون جمّة. ولكن ينبغي بداية معالجة بعض القضايا الأساسية. فكيف نتعامل مع الخصوصية؟ إن كانت كلمات الطفل وأفكاره ستجمع من اللحظة التي يبدأ فيها الكلام، وجرى تحليل أساليب التعلم الخاصة به، فكيف نحمي تلك البيانات؟ ومن سيمتلك تلك البيانات ويستثمرها؟ وإن كانت اللعبة "تستمع" إلى ما يجري في المنزل، فلن تجمع بيانات الأطفال فقط. وإن كان لدى الطفل الواحد العديد من الأجهزة وكلها تستمع وجلب أصدقاؤه من الأطفال أجهزتهم، ازداد حجم مشكلة الخصوصية. لأن احتمال إساءة استخدام الحكومة أو أولئك الذين يحاولون التأثير على اتجاهات التصويت مثلا احتمال ضخم، واستقلالية الإنسان عرضة للخطر. وكيف يختار الأهل المنهاج الذي يرغبون أن يتعلمه طفلهم؟ فمعظم الأهل يحاولون اختيار مدارس أطفالهم، ولكن هذا غير ممكن حاليًا بالنسبة لخدمة الذكاء الاصطناعي التعليمية. ويحظر العديد من البلدان الإعلانات الموجّهة للأطفال، ولكن إن قالت اللعبة الذكية أن الطقس بارد، فهل يرقى ذلك إلى إعلان إذا ما طلب الطفل معطفًا بعد ذلك؟ وكيف سيتأثر اللعب المبدع لأطفالنا إن لم يؤلّفوا قصصا عن ألعابهم، بل أتت ألعابهم مع قصة مكتوبة مسبقا؟ فإن أصبح الصديق غير المرئي للطفل قادرا على الرد، فلن يستخدم الطفل خياله. وهل سيؤثر هذا التغيير على استقلالنا فقط أم على طريقة تفكيرنا أيضاً؟ وكيف سيتفاعل الأطفال الذين يكبرون محاطين بأجهزة الذكاء الاصطناعي مع أقرانهم؟ وهل سنحتاج لبعضنا البعض بنفس القدر إن كانت هذه الأجهزة تلبي احتياجاتنا ولا تتبنى وجهة نظر بديلة. وهل ستكون أجهزة الذكاء الاصطناعي غرفة الصدى الكبرى التي تردد أفكارنا؟ وينفذ المنتدى الاقتصادي العالمي، بالشراكة مع منظمة الأمم المتحدة للطفولة (اليونيسيف) ومختلف الجهات التنظيمية القطرية والأكاديميين والمجتمع المدني والأعمال التجارية، مشروعا يسعى إلى الإجابة عن الأسئلة المذكورة أعلاه والعديد من القضايا الناشئة الأخرى.
(2) استخدام الذكاء الاصطناعي في السيارات - عندما نرى أفلامًا مثل Star Wars وStar Trek، نرى البشر فيها يقودون سفن الفضاء، ولكن السيارة المستقلة لن تحتاج إلى من يقودها، بل سيتولى الذكاء الاصطناعي تلك المهمة عوضا عن أي شخص. وسيكون الذكاء الاصطناعي أعلى قدرة من البشر على حساب المسافة والسرعة والوجهة، ولذلك فمن المنطقي التخلي عن مهارات القيادة لصالحه. ولكن ذلك سيثير أسئلة بشأن قضية الخصوصية لأن الشركات المصنّعة لهذ التكنولوجيا ستحتاج إلى معرفة بيانات المواقع، ويمكن أن توجه السيارة عبر طرق تقع فيها متاجر تدفع أجورا مقابل ذلك بهدف تشجيع مستخدمي السيارات على الشراء من هذه المتاجر. وبالمثل ستجمع الأجهزة الموجودة في السيارة بيانات عن مستخدمها: فكيف نحافظ على الخصوصية؟ وقد بدأت ألمانيا العمل على هذا الجانب، وأصدرت مرسومًا يقضي بأن بيانات المحادثات التي تجري داخل السيارة هي ملك للمستخدم وليس للشركة المصنعة للسيارة أو شركة الذكاء الاصطناعي. بالإضافة إلى ذلك، فإن استخدام المركبات ذاتية القيادة قد يؤدي إلى إلغاء عدد هائل من الوظائف، وتقدر شركة ماكنزي أن حوالي 25000 سائق شاحنة قد يفقدون عملهم كل أسبوع. كما أنّ انخفاض ملكية السيارات الفردية نتيجة وجود عدد أكبر من الأشخاص الذين يستخدمون السيارة عند الحاجة فقط، فقد يؤثر ذلك بشكل كبير على تصنيع السيارات والخدمات الملحقة به. ومن ناحية أخرى، ستكون التأثيرات البيئية الإيجابية للسيارات ذاتية القيادة ضخمة، ولا شك أنها ستخفض عدد الوفيات على الطرقات بشكل كبير.
يعرب الكثيرون عن قلقهم بشأن مسألة السيطرة على الذكاء الاصطناعي العام والذكاء الاصطناعي الفائق، وأرى أنّهم محقون، ويعملون على هذه المسألة. وعلينا أن نهتمّ أيضا بالذكاء الاصطناعي ضيق النطاق وقضايا التحيز والخصوصية والمساءلة والشفافية. وهذه المجالات الأربعة تبرز مرارا وتكرارا في استخدام الذكاء الاصطناعي ضيق النطاق، سواء في مجال الرقابة الوقائية وإصدار الأحكام أو القدرة على الحصول على الوظائف والقروض. وكلما زاد عدد الأجهزة القائمة على الذكاء الاصطناعي، مثل السيارات وروبوتات القيادة، تضاعفت هذه المشكلات. ولهذا السبب ينبغي التفكير في مسألة الحوكمة في هذه المرحلة.
للحوكمة أشكال عدّة، والتنظيم من قبل الحكومة أحدها. وفي كثير من الأحيان، يتخلف هذا التنظيم عن تقنيات سريعة التطوّر مثل الذكاء الاصطناعي لأنّه يستغرق وقتًا طويلاً للتخطيط، وخاصة في الدول الديمقراطية.
وفي المنتدى الاقتصادي العالمي نعلم أن التنظيم ضروري في بعض الحالات؛ ولكن نرى أن أفضل طريقة للنجاح في إدارة الذكاء الاصطناعي هي استخدام تدابير الحوكمة النبيهة. وتشمل تطوير واستخدام معايير محددة (بروتوكولات (IEEE) والمنتدى الاقتصادي العالمي)، وبروز معايير اجتماعية تقيّد أو تقرّ خطط الحوافز الخاصة وإصدار الشهادات والإشراف من قبل الهيئات المهنية واتفاقيات الصناعة والسياسات التي تطبقها المنظمات طواعية أو بموجب في علاقاتها مع المنافسين والموردين والشركاء والعملاء. ولذلك نرى أن عمل المبادرة العالمية بشأن الاعتبارات الأخلاقية في الذكاء الاصطناعي والأنظمة الذاتية يمتاز بأهمية كبيرة كجزء من مبادرات الحوكمة النبيهة الواردة أعلاه.
وقد بدأنا عددا من المشاريع التي تعرض هذا النهج. أحدها هو إطلاق الذكاء الاصطناعي في القطاع العام. فللذكاء الاصطناعي القدرة على تحسين العمليات الحكومية إلى حد كبير وتلبية احتياجات المواطنين بطرق جديدة، من إدارة حركة المرور إلى تقديم الرعاية الصحية إلى معالجة استمارات الضرائب. ولكن العديد من المؤسسات العامة حذرة بشأن تسخير هذه التكنولوجيا القوية بسبب المخاوف من التحيز والخصوصية والمساءلة والشفافية، والتعقيد بشكل عام. وتظهر أحداث جديدة العواقب السلبية الناجمة عن استخدام الذكاء الاصطناعي في مجالات مثل إصدار الأحكام الجنائية وإنفاذ القانون أو حتى فرص العمل. ولا تملك الحكومات رفاهية استخدام خوارزميات "الصندوق الأسود" الغامضة التي تستخدم بشكل متزايد في تقنيات الذكاء الاصطناعي التي تنشرها الصناعة. ورغم تزايد مطالبات المواطنين بأن تقدّم الحكومات خدمات بنفس مستوى الخدمات التي تقدمها شركات القطاع الخاص المبتكر، يُطلب من الموظفين العموميين تحديد الفوائد التي يمكن أن يحرزها استخدام هذه التكنولوجيا المعقدة واستيعاب الاحتمالات السلبية للأدوات التي أبدعت باستخدام الذكاء الاصطناعي.
ويدعو المشروع أصحاب المصلحة عبر القطاعات إلى المشاركة في وضع المبادئ التوجيهية التي ستمكّن الحكومات من الحصول على تكنولوجيا الذكاء الاصطناعي بثقة ومسؤولية، وتوجيه التطوير الداخلي للتكنولوجيا التي تستخدم الذكاء الاصطناعي. وقد التزم عدد من الحكومات بتجربة هذه الإرشادات لاختبار الافتراضات حول فعاليتها وتأثيرها، وإعادة صياغة المبادئ التوجيهية بناء على هذا التعلم، ومشاركة المبادئ المحدثة بشكل علني لتشجيع اعتمادها دوليا. ونظرا لمحدودية ميزانيات الحكومات ومحاولاتها الجاهدة لفصل الترويج الدعائي عن الحقيقة الموضوعية فيما يخص منتجات الذكاء الاصطناعي الجديدة، فإن هذا المشروع سيجمع المدخلات ويوفر إرشادات حول أكثر حالات استخدام الذكاء الاصطناعي من قبل الحكومات فعالية، فضلاً عن الحالات غير الناضجة وغير المثبتة والمحفوفة بعدم اليقين أو المخاطرة.
وستمكّن هذه المبادئ التوجيهية الحكومات من نشر تكنولوجيا الذكاء الاصطناعي وتصنيعها بطريقة مسؤولة لمصلحة المواطنين. وفي الوقت ذاته، يمكن للقوة الشرائية الكبيرة للحكومات أن تدفع القطاع الخاص لاعتماد هذه المعايير للمنتجات التي تباع خارج نطاق الحكومة. ومع بدء المناظرات داخل قطاع الصناعة بشأن وضع معايير خاصة بالقطاع بخصوص هذه التكنولوجيا، فإن السلطة الأخلاقية للحكومة ومصداقيتها قد تساعد في وضع أسس جوهرية لهذه المناقشات. وتوفر هذه الأساليب غير المباشرة للتأثير على مسار الذكاء الاصطناعي بديلاً أكثر ليونة للتنظيم، وخاصة وأنّ تكون إجراءات الحوكمة التقليدية بطيئة للغاية في مواجهة التغير التكنولوجي السريع، لا سيما في مجال الذكاء الاصطناعي. ورغم أن الشركات عادة ما تكون حذرة من المبادئ التوجيهية الأكثر صرامة بشأن المشتريات الحكومية، فإن هذا المشروع يعتمد على العديد من دراسات الحالة التي تساعد فيها أطر المنطق السليم الحكومات على التغلب على الإحجام عن شراء التقنيات الجديدة المعقدة وفتح أسواق جديدة للشركات.
نحن نرى أن العمل مع قطاع الأعمال والحكومات والمجتمع المدني والمنظمات الحكومية الدولية والأوساط الأكاديمية سيساعد المنتدى في وضع آليات حوكمة للذكاء الاصطناعي، مما يقينا من سباق إلى الهاوية. وتهتم العديد من الحكومات في جميع أنحاء العالم بالتعاون مع المنتدى الذي يضم مكاتب (C4IR) في سان فرانسيسكو والصين وطوكيو والهند، وسبعة مكاتب إضافية من المقرر افتتاحها في جميع أنحاء العالم في عام 2019. إنّ حوكمة الذكاء الاصطناعي هي أمر يتعين علينا القيام به معا كي نجني فوائد الذكاء الاصطناعي ونخفف سلبياته.
ويعمل المنتدى على مشروع لمساعدة الشركات على التفكير في حوكمة الذكاء الاصطناعي، وهي مجموعة "أدوات مجلس الذكاء الاصطناعي".
وبما أن الذكاء الاصطناعي يصبح يوما بعد يوم حتمية لنماذج الأعمال التجارية عبر الصناعات، فسيُطلب من قادة الشركات تحديد الفوائد المعيّنة التي يمكن لهذه التكنولوجيا المعقدة أن تجلبها لشركاتهم، والمخاوف المتعلقة بضرورة تصميمها وتطويرها ونشرها بطريقة مسؤولة. وإن تحقيق التوازن الصحيح سيثمر أنشطة تجارية مستدامة في الثورة الصناعية الرابعة، ولكن الفشل في تصميم الذكاء الاصطناعي وتطويره واستخدامه قد يؤدي إلى تلف قيمة العلامة التجارية ومخاطر ارتجاع العملاء.
وفي كل الشركات، أعضاء مجلس الإدارة هم المشرفون على قيادة شركاتهم في هذه الفترة الحالية من التغيرات التكنولوجية غير المسبوقة والآثار المجتمعية المصاحبة لها. وقد تساعد مجموعة من الأدوات العملية في تمكين أعضاء مجلس الإدارة من طرح الأسئلة الصحيحة وفهم المقايضات الأساسية وتلبية احتياجات أصحاب المصلحة المتعددين، وكذلك تبيان كيفية التفكير في المناهج وتحسينها مثل تعيين مسؤول عن القيم أو مسؤول عن الذكاء الاصطناعي أو مجلس استشاري لأخلاقيات الذكاء الاصطناعي.
وستصمم مجموعة أدوات مجلس الذكاء الاصطناعي استنادا إلى أربعة أركان: التقنية والعلامة التجارية والحوكمة والأثر التنظيمي للذكاء الاصطناعي، وكل منها يوفر عدسة أخلاقية بشأن إبداع الذكاء الاصطناعي وتسويقه واستدامته على المدى الطويل. وستدعم مجموعة الأدوات الشركات في إقرار اعتماد أساليب معينة وكيفية ذلك، وفهم قوة التكنولوجيا في تطوير أعمالها.
وستصمم مجموعة الأدوات من قبل خبراء في الذكاء الاصطناعي وبالتعاون مع أعضاء مجالس الإدارة وأصحاب المصلحة الرئيسيين من مختلف الشركات والصناعات لضمان أن تلبي احتياجات محددة لقادة الشركات، وتساعدهم على اتخاذ إجراءات عملية وإحداث أثر ملموس.