El rebrote del interés por la IA es fruto de los grandes avances realizados en el aprendizaje automático y de los equipos informáticos, en particular el aprendizaje profundo y el aprendizaje por refuerzo. Es sabido que ambos son técnicas que requieren una gran cantidad de datos y no se puede minimizar la importancia de generar o recopilar datos (etiquetados) para entrenar esos algoritmos.
Estamos en un momento en el que la privacidad de los datos es una cuestión central tanto para los usuarios como para los organismos reguladores. Los usuarios exigen más transparencia y control sobre la forma en que se recopilan, almacenan, utilizan y comparten los datos.
Ben Lorica
Estamos en un momento en el que la privacidad de los datos es una cuestión central tanto para los usuarios como para los organismos reguladores. Los usuarios exigen más transparencia y control sobre la forma en que se recopilan, almacenan, utilizan y comparten los datos. En muchos lugares, los organismos reguladores han introducido normas de privacidad de datos que serán un punto de referencia: en la Unión Europea, el Reglamento General de Protección de Datos (RGPD) y en California, la Consumer Privacy Act (Ley de protección de la privacidad de los consumidores) han puesto conceptos como el de transparencia, "control del usuario" y "privacidad desde el origen" en primera plana para las empresas que desean desarrollar productos basados en datos.
Por lo general utilizan los datos con dos finalidades principales: mejorar la toma de decisiones (a través de la inteligencia institucional) y fomentar la automatización (mediante el aprendizaje automático y la IA). Existe un nuevo conjunto de métodos y herramientas que preservan la privacidad a la hora de construir sistemas que se basan en la inteligencia institucional y el aprendizaje automático.
En muchos casos, la inteligencia institucional depende de una base de datos. Fruto de la colaboración entre Uber y RISE Lab de UC Berkeley se cuenta hoy con una herramienta de código abierto que permite a los analistas hacer consultas y obtener resultados que respetan los estándares más avanzados de privacidad diferencial (una garantía formal que proporciona sólidas salvaguardias de seguridad de la privacidad). En muchas organizaciones, esa herramienta será el punto de partida de una inteligencia institucional que respete la privacidad. Y lo que todavía es más notable: la privacidad diferencial puede expandirse a millones de dispositivos que generan datos en tiempo real. Apple, Microsoft y Google cuentan con herramientas analíticas que preservan la privacidad de los servicios para teléfonos móviles y contadores inteligentes.
Investigadores y empresarios se están movilizando activamente para crear métodos y herramientas de preservación de la privacidad para la IA. Hace tiempo que los especialistas en aprendizaje automático coinciden en que las técnicas sencillas de anonimización de datos pueden poner en peligro la privacidad de los usuarios (uno de los primeros ejemplos es el de los intentos de desanonimización del Premio Netflix). A continuación se citan algunas técnicas recientes de conservación de la privacidad en el aprendizaje automático:
Usuarios y organismos reguladores insisten hoy en la importancia de la protección de datos en las empresas, por lo que los profesionales de datos se están movilizando para crear herramientas de protección de la privacidad en los sistemas de inteligencia artificial que se utilizarán en el futuro próximo.