Si bien son pocas las empresas que podrían considerarse a sí mismas realmente como empresas dedicadas exclusivamente a la IA, todas deberán elaborar una estrategia en materia de IA porque la IA está o estará presente por doquier, ya sea en los sistemas operativos o por estar incorporada en robots, y ello tanto en los automóviles como en la atención sanitaria y también en la industria del entretenimiento.
Se corre el riesgo de que una marca pierda valor si se toman decisiones erradas acerca del uso de la IA. Por lo tanto, es importante pensar ahora en los distintos mecanismos de regulación y otros tipos de mecanismos de gobernanza.
Kay Firth-Butterfield
Actualmente, las empresas no estén invirtiendo en investigación y desarrollo y en IA todo lo que deberían, y ello se debe principalmente a los tres elementos siguientes: no entienden la tecnología y lo que puede lograrse gracias a ella; ven que una parte de la tecnología aún está en sus inicios y, por lo general, todavía no es de utilidad; y no saben quién se encargará de formular las normas reguladoras y cuál será su objeto. En consecuencia, hay empresas que, con visión de futuro, intentan utilizar la IA en esferas en las que realmente no es necesario utilizarla, por ejemplo, reconocimiento facial para acondicionadores de aire, y otras empresas que esperan ver cuál será el espacio de innovación y de qué manera los gobiernos podrían respaldarlo.
Otra consideración que preocupa a muchas empresas es que utilizar la IA sin orientarse en una dirección precisa podría ocasionar a corto plazo una considerable pérdida de puestos de trabajo. Las empresas con conciencia social desean encontrar la forma de minimizar ese trastorno entre sus empleados y en la estabilidad política del lugar en el que están implantadas. En muchas zonas del mundo la pérdida de puestos de trabajo que no haya sido mitigada por una reconversión profesional ha dado lugar a cambios geopolíticos, y la inestabilidad de los mercados no es buena para los negocios. Algunas han empezado a utilizar la IA en el ámbito de los recursos humanos, una esfera, al igual que otras, en la que las empresas deberían ser conscientes de los problemas que el uso de la IA podría ocasionar. Esos problemas caen en cuatro categorías amplias: prejuicios, transparencia, rendición de cuentas y derecho a la intimidad.
Se corre el riesgo de que una marca pierda valor si se toman decisiones erradas acerca del uso de la IA. Por lo tanto, es importante pensar ahora en los distintos mecanismos de regulación y otros tipos de mecanismos de gobernanza, pues el rápido ritmo del cambio en esta rama de la tecnología no deja margen para esperar.
Los ámbitos en los cuales la IA tendría el efecto más disruptivo, y aquellos en los cuales el impacto sería mayor, no son necesariamente los mismos. Todo depende de si se habla de incidencia positiva o negativa. Puedo ilustrar este hecho con dos ejemplos:
1) Los juguetes que utilizan IA – Nuestros hijos tendrán que trabajar con robots, por lo cual podría decirse que tener desde la más tierna edad uno o varios juguetes que utilizan IA constituiría una preparación útil para el empleo. Que los niños tengan una educación personalizada supone una enorme ventaja. Sin embargo, hay algunas cuestiones fundamentales que es preciso tratar antes que nada. ¿Cómo se abordará el tema del derecho a la intimidad? Si las palabras y los pensamientos del niño empiezan a recogerse desde el momento en que comienzan a hablar, si se analizan sus maneras de aprender, ¿cómo protegeremos esos datos? ¿A quién pertenecerán esos datos? ¿Pueden monetizarse? Si el juguete “escucha” en el hogar, no solo estará recogiendo datos sobre el niño. Si el niño posee varios dispositivos, y todos ellos escuchan, y otros niños llegan de visita con sus propios dispositivos, se multiplican las cuestiones relativas al derecho a la intimidad. La posibilidad de abuso por parte del gobierno o de quienes deseen ejercer una influencia, por ejemplo, a la hora de votar, es enorme y lo que está en juego es la autonomía del ser humano. ¿Cómo eligen los padres el plan de estudios para sus hijos? Casi todos los padres tratan de elegir la escuela que más les guste para sus hijos, pero si la educación es mediante IA no tendrán la opción de elegir escuela. Muchos países prohíben la publicidad dirigida a los niños, pero si un juguete que utiliza IA dice que hace frío y el niño por ese motivo pide un abrigo ¿podrá eso ser considerado como publicidad? ¿Cómo incide en el juego creativo de nuestros hijos el hecho de no tener que inventar historias para sus juguetes porque los juguetes vienen con su propia historia? Si el amigo invisible responde, el niño no usará su imaginación. Ello puede modificar nuestra autonomía, pero ¿modificará también nuestra forma de pensar? ¿Qué interacción tendrán con sus pares los niños criados con muchos muñecos que utilizan IA? ¿Necesitaremos a nuestros semejantes tanto como ahora, si contamos con dispositivos que satisfacen nuestras necesidades y nunca nos contradicen? Los juguetes que utilizan IA ¿se convertirán en la cámara de resonancia ideal? Junto con el UNICEF, varios órganos reguladores nacionales, académicos y representantes de la sociedad civil y el sector empresarial, el Foro Económico Mundial ha puesto en marcha un proyecto con el que se procura dar respuesta a esas preguntas y a todas las que se van planteando.
2) El uso de la IA en los automóviles – En películas como La guerra de las galaxias y Viaje a las estrellas, los seres humanos siguen “manejando” naves espaciales y, sin embargo, los coches autónomos no necesitarán conductor y la IA hará que manejar sea una competencia innecesaria. La IA estará en mejores condiciones que los seres humanos para calcular distancias y velocidad y para encontrar el punto de destino, por lo cual parece lógico dejar de lado nuestra habilidad de manejo en favor de la IA. Sin embargo, ello plantea cuestiones relativas al derecho a la intimidad: la empresa que suministra el servicio de IA tendrá que conocer los datos de localización y podría encaminar al vehículo por rutas en las que se encuentren negocios que hayan pagado por publicidad. También cabe preguntarse cómo se respetará el derecho a la intimidad, puesto que los dispositivos de a bordo recogerán datos sobre los pasajeros. Alemania ha empezado a trabajar sobre este aspecto, decretando que los datos extraídos de conversaciones mantenidas dentro del automóvil pertenecerán a los pasajeros y no al fabricante del auto ni a la empresa de IA. Además, el uso de vehículos autónomos causará una importante de pérdida de puestos de trabajo: según una estimación de McKinsey, podrían verse afectados hasta 25.000 camioneros por semana. De igual manera, habrá menos propietarios de automóviles porque, cada vez más, la gente optará por alquilar un automóvil cuando lo necesite y ello podría tener una incidencia significativa en la industria automotriz, incluidos sus servicios conexos. Por otra parte, la incidencia positiva de los vehículos autónomos en el medio ambiente será inmensa, así como importante será la disminución del número de víctimas de accidentes de tránsito.
Muchos intentan controlar la IA general y la superinteligencia y, con razón, trabajan en esa esfera. Además, tenemos que preocuparnos por la IA limitada y las cuestiones de prejuicios, derecho a la intimidad, rendición de cuentas y transparencia. Esas cuatro esferas problemáticas aparecen una y otra vez en el uso de la IA limitada, ya sea en lo que se refiere a la policía y las condenas predictivas o a la capacidad de conseguir un puesto de trabajo o un préstamo. A medida que aumente el número de objetos que utilizan IA que llegan al mercado, por ejemplo, automóviles y robots, veremos multiplicarse esas cuestiones. Por ello es necesario empezar en esta etapa a reflexionar acerca de la gobernanza.
Existen muchas formas de gobernanza, y la reglamentación por el gobierno es tan solo una de ellas. A menudo esa reglamentación queda atrás frente a rápidos avances como la IA, porque la actividad de reglamentación toma mucho tiempo, especialmente en los países democráticos.
En el Foro Económico Mundial sabemos que en algunos casos la reglamentación es necesaria: sin embargo, consideramos que la mejora manera de lograr la gobernanza de la IA es adoptando medidas de gobernanza ágiles, como el desarrollo y la aplicación de normas técnicas (Protocolos IEEE y WEF), el fomento de normas sociales que limiten o respalden, regímenes de incentivos al sector privado, la certificación, la supervisión por órganos profesionales, acuerdos con el sector empresarial y políticas que las organizaciones apliquen de forma voluntaria o por contrato en sus relaciones con los competidores, proveedores, asociados y clientes. Así pues, la labor de la Global Initiative on Ethical Considerations in Artificial Intelligence (AI) and Autonomous Systems (AS) es muy importante como una de esas iniciativas prontas de gobernanza.
Tenemos varios proyectos que ponen de manifiesto ese enfoque. Uno de ellos es Unlocking Public Sector AI. Nos hemos dado cuenta de que la IA tiene el potencial de mejorar en gran medida el funcionamiento de los gobiernos y satisfacer de nuevas maneras las necesidades de los ciudadanos, desde la gestión del tránsito hasta la prestación de servicios sanitarios, pasando por el tratamiento de los formularios de declaración de impuestos. Sin embargo, muchas instituciones públicas proceden con cautela en lo que se refiere a soltar las riendas de esta poderosa tecnología debido a las preocupaciones acerca de prejuicios, derecho a la intimidad, rendición de cuentas, transparencia y complejidad en general. Ha habido nuevos episodios de consecuencias negativas originadas por el uso de la IA en ámbitos como la toma de decisiones en procesos penales, seguridad pública y hasta las oportunidades de empleo. Los gobiernos no se permiten el lujo de utilizar algoritmos insondables de “caja negra”, que caracterizan cada vez más a la IA que emplean las empresas. Habida cuenta de que la ciudadanía demanda con mayor frecuencia a sus gobiernos el mismo nivel de servicios que a las empresas innovadoras del sector privado, se exigirá a los funcionarios públicos que reconozcan las ventajas específicas que esta compleja tecnología puede aportar, entendiendo al mismo tiempo las repercusiones negativas de los instrumentos creados valiéndose de la IA.
El proyecto aglutina a las partes interesadas de varios sectores para idear conjuntamente directrices que faculten a los gobiernos a adquirir servicios de IA con confianza y sentido de responsabilidad, así como a guiarlos en la aplicación a nivel interno de las tecnologías que recurren a la IA. Varios gobiernos se han comprometido a poner en práctica con carácter experimental esas directrices para poner a prueba los supuestos sobre su eficacia e incidencia, perfeccionar las directrices a partir de la experiencia adquirida y hacer públicas las versiones actualizadas para alentar su adopción a escala internacional. Puesto que los gobiernos cuentan con presupuestos limitados y, en lo que atañe a los nuevos productos de IA, a menudo se esfuerzan por separar lo que constituye expectativas exageradas de lo que es la sustancia real, este proyecto también servirá para recolectar información y brindar orientación acerca de los usos más eficaces de la IA en el ámbito gubernamental, así como sobre los que aún no han sido perfeccionados o probados, son riesgosos o generan incertidumbre.
Esas directrices facultarán a los gobiernos a aplicar e idear responsablemente la tecnología de IA en beneficio de la ciudadanía. Al mismo tiempo, el importante poder de compra de los gobiernos puede dar impulso a la adopción de estándares por el sector privado, aun para productos que se venden fuera del ámbito gubernamental. Asimismo, puesto que el debate del sector privado fija los estándares propios del sector respecto de esas tecnologías, la autoridad moral y la credibilidad del gobierno pueden contribuir a crear un punto de partida para los debates sobre ese tema. Esos métodos indirectos para ejercer influencia en la trayectoria de la IA constituyen una alternativa más laxa a la reglamentación, especialmente necesaria en un ámbito en el que las medidas tradicionales de gobernanza resultan demasiado lentas a la luz del rápido cambio tecnológico, particularmente en la IA. Aunque, por lo general, las empresas se manejan con cautela en lo que atañe a las estrictas directrices de contratación pública, este proyecto se funda en numerosos estudios de casos que demuestran que un marco resultante del sentido común puede ayudar a los gobiernos a superar la renuencia a adquirir nuevas y complejas tecnologías, abriendo, de hecho, nuevos mercados para las empresas.
Consideramos que, al trabajar con las empresas, los gobiernos, la sociedad civil, las organizaciones intergubernamentales y el sector académico, el Foro puede ayudar en la creación conjunta de mecanismos de gobernanza de la IA, lo que significa que no habrá desequilibrios. Muchos gobiernos están interesados en colaborar con el Foro, que cuenta con Centros para la Cuarta Revolución Industrial (C4IR, de sus siglas en inglés) en San Francisco, China, Tokio y la India, previéndose la apertura de otros siete, aproximadamente, en 2019 en otros países. La gobernanza de la IA es algo que debemos lograr juntos, para conseguir los beneficios de la IA y mitigar los aspectos negativos.
El Foro Económico Mundial está trabajando en un proyecto destinado a ayudar a las empresas a pensar en la gobernanza de la IA, el AI Board Toolkit (Guía práctica sobre IA para empresas).
Puesto que la IA está pasando a ser, cada vez más, un imperativo en los modelos empresariales de todos los sectores, los directivos de empresas deberán reconocer los beneficios concretos que esta compleja tecnología puede aportar a sus empresas, así como las inquietudes acerca de la necesidad de idearla, desarrollarla y aplicarla con sentido de la responsabilidad. Lograr el equilibrio correcto llevará a la sostenibilidad de las empresas en la Cuarta Revolución Industrial, pero si no se llega a idear, desarrollar y utilizar la IA con sentido de responsabilidad, el valor de la marca se verá adversamente afectado y cabe esperar una reacción del consumidor.
Los directivos de empresas tienen la obligación de seguir gestionándolas aun frente a cambios tecnológicos sin precedentes que tendrán un impacto social. Un manual o guía práctica puede ayudar a que los miembros de las juntas se hagan las preguntas correctas, comprendan las ventajas y desventajas más importantes, y satisfagan las necesidades de todas las partes interesadas, y a que consideren y saquen el mayor provecho de ciertas medidas, como el nombramiento de un directivo que se ocupe de los valores y principios de la empresa, o de uno que se encargue de todo lo relacionado con la inteligencia artificial, o de un consejo asesor en Ética de Inteligencia Artificial.
La Guía práctica sobre IA para empresas está concebida en torno a las cuatro esferas en que la IA tendrá un impacto: la técnica, la imagen de marca, la gobernanza y la estructura organizativa, cada una de las cuales proporciona una perspectiva ética sobre la creación, la comercialización y el mantenimiento de la IA a largo plazo. La Guía práctica también será de gran utilidad para saber si a una empresa le conviene adoptar un determinado enfoque y cómo hacerlo, y a comprender el poder que tiene la tecnología para impulsar la actividad empresarial.
Del diseño de la Guía práctica se encargarán especialistas en IA, en colaboración con directivos de empresas y partes interesadas clave de diversas compañías para asegurar que la guía satisface las necesidades específicas de los líderes de empresas, propiciará la toma de medidas y tendrá repercusiones específicas.