A medida que la IA continúa introduciéndose en nuestra vida diaria, es difícil no ver el impacto que ya está teniendo en casi todos los sectores. Dentro de la industria financiera, por ejemplo, la IA está facilitando inversiones más inteligentes, analizando tendencias del mercado y prediciendo el desempeño de las acciones, lo que en última instancia ayuda a individuos e instituciones a tomar decisiones comerciales más informadas.
Si bien la mayoría de los avances en la IA son interesantes y continúan impulsando a diferentes industrias, hay quienes abusan de la tecnología para fines más nefastos. Con la IA generativa, uno de los mayores riesgos que las personas y las organizaciones deben tener en cuenta son los llamados “deepfakes”.
estas leyendo Cripto largo y cortonuestro boletín semanal que ofrece ideas, noticias y análisis para el inversor profesional. Registrate aquí para recibirlo en tu bandeja de entrada todos los miércoles.
Los deepfakes son falsificaciones digitales muy realistas producidas con IA para manipular o generar contenido visual y/o de audio. Por ejemplo, un deepfake podría implicar un vídeo generado por IA que muestre a una celebridad participando en acciones o haciendo declaraciones que en realidad nunca ocurrieron, como cuando el comediante Jordan Peele creó un deepfake de Barack Obama para mostrar la amenaza que podría representar la tecnología generada por IA.
Si bien es posible que por defecto creamos lo que vemos, este tipo de contenido falsificado o engañoso generado por IA es cada vez más común. Entre 2022 y la primera mitad de 2023, los deepfakes como proporción del contenido en EE. UU. aumentó casi 13 veces, del 0,2% al 2,6%, según un informe reciente de Sumsub Research.
A los expertos ya les preocupa que los deepfakes puedan usarse para tratar de influir en la opinión pública o influir en eventos importantes como las elecciones, y que los malos actores intenten usar la IA para hacerse pasar por funcionarios electos. Están “completamente aterrorizados” de que la próxima carrera presidencial implique una “tsunami de desinformación”, impulsado en gran medida por contenido deepfake y engañoso generado por IA, señaló otro informe reciente. Muchos ven la capacidad de los deepfakes de desdibujar la línea entre la verdad y la ficción como una amenaza fundamental para las democracias y las elecciones justas en todo el mundo.
Entonces, ¿cómo podemos, como sociedad, mitigar la prevalencia y los riesgos de los deepfakes, así como riesgos similares que pueden surgir a medida que la IA generativa se vuelve más sofisticada?
Blockchains podría ser la tecnología crucial que necesitamos para ayudar a abordar este problema. En esencia, las cadenas de bloques públicas, como Ethereum, tienen varias características clave que las colocan en una posición única para establecer la autenticidad del contenido y la información. Esto incluye la transparencia inherente de blockchain, su naturaleza descentralizada y su enfoque en la seguridad e inmutabilidad de la red.
Para aquellos que no están familiarizados, una cadena de bloques pública registra información de forma transparente en un plazo determinado, accesible para todos, globalmente y sin control. Esto permite que cualquiera pueda verificar la validez de la información, como su creador o una marca de tiempo, convirtiéndola en una fuente de verdad. Las cadenas de bloques públicas también están descentralizadas, lo que elimina la necesidad de un tomador de decisiones central y reduce el riesgo de manipulación. Esta estructura descentralizada también ofrece una alta seguridad de la red al eliminar puntos únicos de falla y garantizar un registro inmutable y resistente a manipulaciones.
Además, las cadenas de bloques ya han demostrado su capacidad para autenticar contenidos. Por ejemplo, con el arte digital como tokens no fungibles (NFT), la tecnología blockchain permite a cualquiera verificar el creador y propietario de una obra de arte, lo que nos permite distinguir entre el original y sus posibles réplicas. Este potencial de transparencia y autenticación se extiende a videos, imágenes y texto, proporcionando bases importantes para que los desarrolladores creen soluciones y herramientas orientadas a combatir los deepfakes, como Worldcoin, Irys y Numbers Protocol de OpenAI.
A medida que crece el impacto de la IA en la sociedad, el contenido generado por IA y los deepfakes solo se volverán más prominentes. Los expertos de Harvard ya predicen que Más del 90% del contenido en línea será generado por IA en el futuro. Para protegernos contra amenazas como los deepfakes, es fundamental que nos anticipemos al problema e implementemos soluciones innovadoras. Las cadenas de bloques públicas, de propiedad colectiva y operadas por los usuarios, ofrecen características prometedoras como seguridad de red, transparencia y descentralización que pueden ayudar contra los problemas que presentan los deepfakes.
Sin embargo, gran parte del trabajo en curso aún se encuentra en sus primeras etapas y persisten desafíos con el desarrollo técnico y la adopción generalizada de protocolos relacionados con blockchain. Si bien no existe una solución rápida, debemos seguir comprometidos a dar forma a un futuro que defienda la verdad, la integridad y la transparencia, mientras nuestra sociedad navega juntas por estas tecnologías emergentes (y los riesgos que presentan).
Nota: Las opiniones expresadas en esta columna son las del autor y no reflejan necesariamente las de CoinDesk, Inc. o sus propietarios y afiliados.