Хотя сегодня есть очень немного компаний, которые могли бы с полным правом именовать себя компаниями, специализирующимися в области ИИ, всем компаниям придется разрабатывать какие-то стратегии использования систем ИИ, поскольку эти системы – в виде ли просто операционных систем или роботов для различных применений, от автомобилей до бытовых систем охраны здоровья и развлечений – станут поистине вездесущими.
Принятие неверных решений по вопросам использования ИИ может оборачиваться для компаний значительными потерями в результате снижения ценности корпоративных брендов. В этой связи важно уже сегодня продумывать различные механизмы регулирования и управления этой сферой.
Кэй Фёрт-Баттерфилд
Сегодня компании, пожалуй, не вкладывают средства в НИОКР и ИИ в тех объемах, в которых это следовало бы делать. В основном это обусловлено тремя группами причин: слабым пониманием технологии и ее возможностей; тем, что некоторые области этой технологии пока находятся на очень ранних стадиях своего развития и в целом не вышли на уровень практического применения; недостаточным пониманием того, кто будет регулировать эту сферу и на какие процессы оно может повлиять. В результате мы иногда видим, как одни предприятия, стремящиеся идти в ногу с прогрессом, пытаются использовать системы ИИ там, где их применение не является реально необходимым (например, когда системы распознавания черт лица встраивают в кондиционеры), а другие дожидаются момента, когда им станет понятнее конфигурация всего этого «инновационного поля» и формы возможной государственной поддержки.
Многие компании также беспокоит то, что в краткосрочном плане бесконтрольное применение ИИ может вызвать значительное сокращение занятости. Компании с более выраженным чувством социальной ответственности стремятся найти способы минимизации этих последствий для своего персонала и политической стабильности в регионах их деятельности. Во многих частях света сокращение численности рабочих мест, которое не удалось компенсировать переобучением рабочей силы, привело к геополитическим сдвигам, а нестабильность рынков обычно несет потери и для предприятий. Некоторые компании начали применять системы ИИ в своей кадровой работе, но компаниям следует ясно осознавать, что использование таких систем в этой и других областях может порождать определенные проблемы. Эти проблемы подразделяются на четыре общие группы: проблемы субъективности, проблемы транспарентности, проблемы подотчетности и проблемы защиты персональных данных.
Принятие неверных решений по вопросам применения систем ИИ может оборачиваться для компаний значительными потерями в виде снижения ценности корпоративных брендов. В этой связи важно уже сегодня начать разрабатывать различные механизмы регулирования и управления этой сферой. Темпы изменений, происходящих в этой области технологии, столь высоки, что мы просто не можем ждать.
Области, в которых последствия внедрения ИИ будут наиболее катастрофичными и области, в которых они будут наиболее ощутимыми – это не обязательно одни и те же области. Ответ на этот вопрос зависит от того, имеются ли в виду положительные или отрицательные последствия. Позвольте мне проиллюстрировать эту мысль двумя примерами:
(1) Игрушки с искусственным интеллектом. Наши дети будут все больше общаться с роботами. В этой связи можно было бы утверждать, что наличие у ребенка с самого малого возраста одной или нескольких игрушек с ИИ будет очень полезным в плане его подготовки к жизни как будущего участника рынка труда. Огромные новые возможности во всех странах мира открывает и индивидуализированное обучение детей. Но сначала необходимо решить ряд фундаментальных вопросов. Как будет обеспечиваться защита персональных данных? Если слова и мысли ребенка будут записываться с того момента, как он начнет говорить, если на этой основе будут анализироваться индивидуальные особенности познания им окружающего мира, как мы будем защищать эти данные? Кто владеет этими данными? Могут ли они быть монетизированы? Если игрушка «слушает» разговоры в доме, она собирает данные не только о детях. Если ребенок имеет много устройств, «слушающих» разговоры, да еще и другие дети приносят в дом свои игрушки, проблема защиты персональных данных становится еще острее. Возможности злоупотребления такими данными со стороны государства или каких-то лиц или структур, стремящихся оказать влияние на людей – например, на характер их голосования – огромны и ставят под угрозу нашу независимость. Как родители должны выбирать желательные, по их мнению, учебные программы для своих детей? Большинство родителей стараются решать эти вопросы путем выбора школы, однако применительно к образованию с применением ИИ такой подход уже не работает. Во многих странах установлен запрет на рекламу, ориентированную на детей, но если игрушка с ИИ говорит, что «ей холодно» и ребенок просит купить ей пальто, будет ли это расцениваться как реклама? Как повлияет на развитие творческих способностей наших детей то, что уже не они будут придумывать истории для своих игрушек, а игрушки будут предлагать им собственные сюжеты? Если невидимый друг ребенка отвечает ему, у ребенка не развивается воображение. Не повлияет ли это не только на нашу свободу, но и на наш способ мышления? Как дети, выросшие в окружении большого числа таких друзей с искусственным интеллектом, будут воспринимать своих сверстников? Будем ли мы, имея в своем распоряжении устройства, удовлетворяющие наши желания и никогда не высказывающие мнение, отличное от нашего, нужны друг другу так, как раньше? Не становится ли игрушка с ИИ идеальным случаем «эхо-камеры»: зоны, в которой мы изолированы от внешнего мира? В настоящее время Всемирный экономический форум, в партнерстве с ЮНИСЕФ, регулирующими органами разных стран, учеными, организациями гражданского общества и частным бизнесом реализует проект, участники которого постараются дать ответы на все эти и многие другие возникающие вопросы.
(2) Применение искусственного интеллекта в автомобилях. Хотя даже в футуристических фильмах, таких как «Звездные войны» и «Стартрек», люди все еще «управляют» космическими кораблями, управлять автономным автомобилем человеку уже не потребуется: искусственный интеллект устранит саму необходимость освоения людьми этого навыка. Системы ИИ будут в состоянии рассчитывать расстояние, скорость и маршрут лучше людей, и передача системам ИИ функций управления транспортными средствами будет вполне осмысленной. Но здесь возникают вопросы защиты персональных данных. Компания, предоставляющая автомобиль с системой ИИ, должна будет иметь данные о вашем местоположении и строить маршрут таким образом, чтобы он проходил мимо пунктов, уплативших за этот сервис, чтобы стимулировать его использование клиентами. В бортовых устройствах будет также собираться информация о пользователях, и мы должны решить, как защищать эти персональные данные. Соответствующая работа уже ведется в Германии, и в стране уже принято постановление о том, что данные разговоров, ведущихся в таком автомобиле, должны принадлежать клиентам, а не производителю автомобиля или производителю систем ИИ, которыми он оснащен. Кроме того, использование «беспилотных» транспортных средств – это тенденция, которая, скорее всего, вызовет значительное сокращение занятости. По оценке компании McKinsey, эти процессы могут влиять не менее чем на 25 тыс. водителей грузовиков в неделю. Сокращение парка личного автотранспорта в условиях, когда все больше людей просто арендуют машины по мере необходимости, также может оказать значительное влияние на автомобилестроение и смежные отрасли. С другой стороны, автомобили-роботы дают огромный положительный природоохранный эффект и позволяют сократить число ДТП со смертельным исходом.
Многие люди выражают тревогу по поводу возможности развития общего искусственного интеллекта (AGI) и суперинтеллекта, приобретающего контроль над нами, и ведут – вполне правильно – исследования в этой области. Кроме того, нам необходимо следить за развитием систем ИИ локального применения и решать проблемы субъективности, защиты персональных данных, подотчетности и транспарентности. Проблемы этих четырех категорий постоянно возникают при внедрении локальных систем ИИ, будь то в области охраны правопорядка и определения наказаний с использованием прогностических средств, при приеме на работу или при выдаче кредитов. По мере появления все новых и новых устройств с системами ИИ, таких как автомобили и роботы, эти вопросы будут возникать перед нами все чаще. Именно поэтому все вопросы регулирования следует тщательно продумывать уже сегодня.
Существует немало форм управления, и государственное регулирование – лишь одна из них. Очень часто принятие норм регулирования такого рода отстает от быстрого развития технологий, подобных ИИ, поскольку выработка таких норм, особенно в демократических странах, занимает много времени.
Участники ВЭФ понимают, что в некоторых случаях регулирование необходимо; вместе с тем, мы полагаем, что для управления сферой искусственного интеллекта лучше всего подходят гибкие средства и методы. К ним относятся разработка и внедрение стандартов (протоколов IEEE и ВЭФ), формирование социальных норм ограничительного или поощрительного характера, применение частных пакетов стимулирования, сертификация, надзор со стороны профессиональных ассоциаций, отраслевые соглашения и нормы, применяемые отраслевыми организациями на добровольной или договорной основе в отношениях с конкурентами, поставщиками, партнерами и клиентами. В этой связи работа, ведущаяся в рамках глобальной инициативы «Этические аспекты применения систем искусственного интеллекта (ИИ) и автономных систем (АС)» служит важным элементом таких инициатив по развитию гибкого управления.
Мы осуществляем ряд проектов, демонстрирующих возможности данного подхода. Один из них – это проект «Устранение препятствий для применения систем ИИ в государственном секторе». Мы поняли, что системы ИИ позволяют радикально улучшить работу государственных служб и по-новому решать для граждан самые разные задачи: от управления транспортными системами до оказания медицинских услуг и обработки налоговых деклараций. Тем не менее, многие государственные учреждения внедряют эти эффективные технологии с большой осторожностью, принимая во внимание проблемы субъективности, защиты персональных данных, подотчетности и транспарентности, а также сложность самих процессов их внедрения. Становятся известны новые случаи негативных последствий применения систем ИИ в таких областях, как определение наказаний за правонарушения, охрана правопорядка и даже прием на работу. Правительства не могут позволить себе иметь дело с непрозрачными алгоритмами по типу «черного ящика», которые все более типичны для систем ИИ, реализуемых в промышленности. В ситуации, когда граждане все активнее требуют от своих правительств того же уровня обслуживания, которого они ожидают от инновационных компаний частного сектора, должностным лицам государства придется более точно выявлять области, в которых применение этих сложных технологий обеспечивает конкретные преимущества, учитывая риск негативных последствий их применения.
В рамках проекта партнеры, представляющие самые разные сферы деятельности, совместно вырабатывают рекомендации, позволяющие государственным ведомствам закупать системы ИИ более уверенно и более ответственным образом, а также координировать процессы собственной разработки таких технологий. Ряд стран взял на себя обязательства по применению этих рекомендаций в пробном режиме для проверки их реальной действенности, постепенно расширяя сферу их применения на основе накапливаемого таким образом опыта и публично распространяя усовершенствованные версии этих рекомендаций, создавая тем самым предпосылки для их принятия на международном уровне. Поскольку государственные бюджеты ограничены, а отделить реальные факты от рекламной шумихи, сопровождающей новые системы ИИ, государству бывает далеко не просто, в рамках проекта будут также собираться сведения о практике конкретных стран и вырабатываться советы как относительно областей, в которых применение систем ИИ в государственном секторе является наиболее оправданным, так и тех применений, которые еще не достигли необходимой зрелости, не обладают подтвержденной эффективностью или связаны с высоким уровнем неопределенности и риска.
Эти рекомендации позволят правительствам разрабатывать и внедрять технологии ИИ в интересах граждан наиболее ответственным образом. При этом крупные масштабы закупок и реализации таких систем государством могут побудить частный сектор к принятию тех же стандартов, в том числе в отношении систем, внедряемых вне государственного сектора. Наконец, поскольку промышленные ассоциации также подумывают о внедрении собственных стандартов на эти технологии, такие нормы, подкрепленные моральным авторитетом государства, могут служить своего рода исходными положениями для обсуждения этих вопросов. Такие косвенные методы воздействия на траекторию развития систем искусственного интеллекта – это более гибкая и мягкая альтернатива традиционному регулированию, что особенно важно для области, в которой традиционные механизмы управления, с учетом скорости технологических сдвигов, особенно в области ИИ, ощущаются как слишком медленные. Хотя частные компании обычно относятся к принятию более жестких норм регулирования государственных закупок с определенной осторожностью, данный проект, основанный на анализе реального практического опыта и общих принципах здравого смысла, может помочь правительствам преодолеть опасения, возникающие при закупке этих сложных новых технологий, и даже создать для компаний новые рынки сбыта.
Мы считаем, что Форум, работая совместно с бизнесом, государственными ведомствами, гражданским обществом, МПО и академическими учреждениями, сможет создать условия для совместной разработки механизмов управления сферой искусственного интеллекта, что позволит устранить вероятность возможной «гонки уступок». Правительства многих стран мира заинтересованы в сотрудничестве с Форумом, который уже открыл отделения Центра четвертой промышленной революции (C4IR) в Сан-Франциско, Китае, Токио и Индии и намерен открыть еще семь таких отделений в разных странах мира в течение 2019 г. Чтобы использовать все преимущества ИИ и нейтрализовать возможные негативные последствия применения этих технологий, мы должны вместе решать вопросы управления этой сферой.
ВЭФ осуществляет проект, связанный с разработкой «Пакета методических материалов по вопросам использования ИИ для руководства компании», цель которого – помогать предприятиям решать вопросы управления ИИ.
Сегодня, когда мы всё яснее видим, что применение ИИ становится необходимым компонентом операционных моделей предприятий самых разных отраслей, корпоративные лидеры должны будут более конкретно определять преимущества, которые эта сложная технология может дать их предприятиям, а также отвечать на непростые вопросы, касающиеся ее ответственного проектирования, разработки и внедрения. Нахождение правильного баланса позволит создать устойчивые предприятия эпохи четвертой промышленной революции, неспособность же организовать ответственное проектирование, разработку и применение систем ИИ может снижать ценность корпоративных брендов и и вызвать негативную реакцию со стороны клиентов.
Члены советов директоров всех компаний ответственны за то, чтобы провести свои компании через нынешний период беспрецедентных технологических сдвигов и связанных с ними социальных изменений. Практический комплект методических материалов может помочь руководству компаний правильно поставить вопросы, понять ключевые альтернативы и удовлетворять запросы различных заинтересованных сторон, а также рассмотреть возможность применения таких мер, как назначение ведущего сотрудника по вопросам корпоративных ценностей, ведущего сотрудника по системам ИИ или совещательного органа при совете директоров компании по этическим вопросам применения ИИ и осуществить такие меры наиболее оптимальным образом.
Такой пакет материалов будет посвящен четырем основным областям: техническим вопросам, вопросам брендинга, управленческим и организационным последствиям применения ИИ. Материалы каждого из этих разделов позволят компаниям анализировать вопросы создания, сбыта и обеспечения устойчивой работы систем ИИ с этической точки зрения. Пакет также поможет компаниям решать, следует ли разрабатывать какие-то подходы для более конкретных областей и как делать это наиболее правильно, а также лучше понять возможности, создаваемые этими технологиями для их бизнеса.
Пакет будет разработан специалистами по вопросам ИИ в сотрудничестве с членами советов директоров и ключевыми партнерами различных компаний и отраслей. Это позволит увязать его содержание с конкретными задачами, стоящими перед корпоративными лидерами, и тем самым превратить его в практический инструмент, способный давать осязаемые результаты.