Muchos estadounidenses vieron por primera vez detrás de la cortina del aprendizaje automático cuando los detalles de la tecnología “Just Walk Out” de Amazon se hicieron públicos. En lugar de que la tecnología pura contabilizara las compras de los clientes y les cobrara cuando salían de la tienda, las ventas eran comprobadas manualmente por unas 1.000 personas reales que trabajaban en la India.
Pero estos trabajadores eran la mitad humana de lo que realmente es la mayor parte de la IA: una colaboración entre el aprendizaje por refuerzo y la inteligencia humana.
El elemento humano tiende a ser ignorado en las discusiones sobre la seguridad de la IA, lo cual es un poco inquietante dado el impacto que probablemente tendrá la IA en nuestros mercados laborales y, en última instancia, en nuestras vidas individuales. Aquí es donde la descentralización, la falta de confianza y la seguridad inherentes a la tecnología blockchain pueden desempeñar un papel importante.
El Centro para una IA segura identifica cuatro categorías amplias de riesgo de IA. Para empezar, existe el uso malicioso, en el que los usuarios podrían “aprovechar intencionalmente potentes IA para causar daños generalizados” al diseñar “nuevas pandemias o [using them] para propaganda, censura y vigilancia, o [releasing AIs] perseguir de forma autónoma objetivos dañinos”.
Una preocupación más sutil es el riesgo de una carrera de IA, en la que corporaciones o estados nacionales compiten para construir rápidamente sistemas más potentes y asumir riesgos inaceptables en el proceso. La guerra cibernética desenfrenada es un resultado potencial; otro es permitir que los sistemas evolucionen por sí solos, potencialmente escapando del control humano; o un resultado más prosaico, pero no menos perturbador, podría ser el desempleo masivo debido a la competencia desenfrenada.
Los riesgos organizacionales con la IA son similares a los de cualquier otra industria. La IA podría causar graves accidentes industriales, o actores malintencionados podrían robar o copiar programas potentes. Finalmente, existe el riesgo de que las propias IA se vuelvan deshonestas, “optimizando objetivos erróneos, desviándose de sus objetivos originales, buscando poder, resistiéndose al cierre o participando en engaños”.
La regulación y la buena gobernanza pueden contener muchos de estos riesgos. El uso malicioso se aborda restringiendo las consultas y el acceso a diversas funciones, y el sistema judicial podría usarse para responsabilizar a los desarrolladores. Los riesgos de una IA no autorizada o problemas organizacionales pueden mitigarse con sentido común y fomentando un enfoque consciente de la seguridad en el uso de la IA.
Pero estos enfoques no abordan algunos de los efectos de segundo orden de la IA. Es decir, la centralización y los incentivos perversos que quedan de las empresas Web2 heredadas. Durante demasiado tiempo, hemos intercambiado nuestra información privada por acceso a herramientas. Puede optar por no participar, pero es una molestia para la mayoría de los usuarios.
La IA no es diferente de cualquier otro algoritmo, en el sentido de que lo que se obtiene de ella es el resultado directo de lo que se ingresa, y ya existen enormes cantidades de recursos dedicados a limpiar y preparar datos que se utilizarán para la IA. Un buen ejemplo es ChatGPT de OpenAI, que se basa en cientos de miles de millones de líneas de texto tomadas de libros, blogs y comunidades como Reddit y Wikipedia, pero también depende de personas y bases de datos más pequeñas y personalizadas para afinar el resultado.
Lea más en nuestra sección de opinión: ¿Qué puede hacer blockchain por la IA? No es lo que has oído.
Esto plantea una serie de cuestiones. Mark Cuban ha señalado recientemente que la IA eventualmente necesitará entrenarse con datos que las empresas y los individuos tal vez no quieran compartir, para que sea más útil comercialmente más allá de la codificación y la redacción. Y, a medida que más empleos se vean afectados por la IA (particularmente a medida que los agentes de IA hagan accesibles las aplicaciones de IA personalizadas), el mercado laboral tal como lo conocemos podría eventualmente implosionar.
La creación de una capa blockchain en una red de IA descentralizada podría mitigar estos problemas.
Podemos construir una IA que pueda rastrear la procedencia de los datos, mantener la privacidad y permitir que individuos y empresas cobren por el acceso a sus datos especializados si utilizamos identidades descentralizadas, apuestas de validación, consenso y tecnologías acumuladas como pruebas optimistas y de conocimiento cero. Esto podría desviar el equilibrio de las instituciones grandes, opacas y centralizadas y proporcionar a individuos y empresas un sistema económico completamente nuevo.
En el frente tecnológico, se necesita una forma de confirmar la integridad de los datos, la propiedad de los datos y su legitimidad (auditoría de modelo).
Entonces, necesitaría un método de procedencia (para tomar prestada una frase del mundo del arte), lo que significa poder ver el rastro de auditoría de cualquier dato para compensar adecuadamente los datos de quien se esté utilizando.
La privacidad también es importante: un usuario debe poder proteger sus datos en sus propios dispositivos electrónicos y poder controlar el acceso a sus datos, incluida la posibilidad de revocar ese acceso. Hacerlo implica criptografía y un sistema de certificación de protección de seguridad.
Este es un avance con respecto al sistema existente, donde la información valiosa simplemente se recopila y se vende a empresas de inteligencia artificial centralizadas. Más bien, permite una amplia participación en el desarrollo de la IA.
Los individuos pueden desempeñar diversas funciones, como crear agentes de inteligencia artificial, suministrar datos especializados u ofrecer servicios intermediarios como el etiquetado de datos. Otros podrían contribuir gestionando la infraestructura, operando nodos o proporcionando servicios de validación. Este enfoque inclusivo permite un ecosistema de IA más diversificado y colaborativo.
Podríamos crear un sistema que beneficie a todos en el sistema, desde los clérigos digitales que se encuentran a un continente de distancia hasta los compradores cuyo contenido del carrito les proporciona datos sin procesar a los desarrolladores detrás de escena. Las criptomonedas pueden proporcionar una colaboración más segura, justa y centrada en el ser humano entre la IA y el resto de nosotros.
Sean es el director ejecutivo y cofundador de Sahara, una plataforma que crea una infraestructura basada en blockchain que no requiere confianza, no requiere permisos y preserva la privacidad para permitir el desarrollo de herramientas de inteligencia artificial autónomas personalizadas por parte de individuos y empresas. Además, Sean es profesor asociado de Ciencias de la Computación y catedrático de carrera temprana Andrew y Erna Viterbi en la Universidad del Sur de California, donde es el investigador principal (PI) del Laboratorio de investigación de descubrimiento de inteligencia y conocimiento (INK). En el Allen Institute for AI, Sean contribuye a la investigación del sentido común de las máquinas. Anteriormente, Sean fue asesor de ciencia de datos en Snapchat. Completó su trabajo de doctorado en informática en la Universidad de Illinois Urbana-Champaign y fue investigador postdoctoral en el Departamento de Ciencias de la Computación de la Universidad de Stanford. Sean ha recibido varios premios que reconocen su investigación e innovación en el espacio de la IA, incluido el de Investigador de IA del año de Samsung, Innovadores menores de 35 del MIT TR, 30 menores de 3 de Forbes Asia y más.