Dado que la inteligencia artificial (IA) aparentemente está destinada a convertirse en un elemento central de las aplicaciones y servicios digitales cotidianos, anclar los modelos de IA en cadenas de bloques públicas ayuda potencialmente a “establecer un rastro de procedencia permanente”, afirmó Michael Heinrich, director ejecutivo de 0G Labs. Según Heinrich, este rastro de procedencia permite un “análisis de seguimiento ex post o en tiempo real” para detectar cualquier manipulación, inyección de sesgo o uso de datos problemáticos durante el entrenamiento del modelo de IA.
Anclar la IA en Blockchain ayuda a fomentar la confianza pública
En sus respuestas detalladas a las preguntas de Bitcoin.com News, Heinrich, poeta e ingeniero de software, argumentó que anclar los modelos de IA de esta manera ayuda a mantener su integridad y fomenta la confianza pública. Además, sugirió que la naturaleza descentralizada de las cadenas de bloques públicas les permite “servir como un registro a prueba de manipulaciones y resistente a la censura para los sistemas de IA”.
En cuanto a la disponibilidad de datos o la falta de ellos, el director ejecutivo de 0G Labs dijo que esto es algo que preocupa tanto a los desarrolladores como a los usuarios. Para los desarrolladores que se basan en soluciones de capa 2, la disponibilidad de datos es importante porque sus respectivas “aplicaciones deben poder confiar en la verificación segura del cliente ligero para su corrección”. Para los usuarios, la disponibilidad de datos les garantiza que “un sistema funciona según lo previsto sin tener que ejecutar nodos completos”.
A pesar de su importancia, la disponibilidad de datos sigue siendo costosa y representa hasta el 90% de los costos de transacción. Heinrich atribuye esto al rendimiento de datos limitado de Ethereum, que es de aproximadamente 83 KB/seg. En consecuencia, incluso pequeñas cantidades de datos se vuelven prohibitivamente caras de publicar en cadena, dijo Heinrich.
A continuación se encuentran las respuestas detalladas de Heinrich a todas las preguntas enviadas.
Bitcoin.com News (BCN): ¿Cuál es el problema de disponibilidad de datos (DA) que ha estado afectando al ecosistema Ethereum? ¿Por qué es importante para los desarrolladores y usuarios?
Michael Heinrich (MH): El problema de disponibilidad de datos (DA) se refiere a la necesidad de que los clientes ligeros y otras partes fuera de la cadena puedan acceder y verificar de manera eficiente todos los datos y el estado de la transacción desde la cadena de bloques. Esto es crucial para soluciones de escalabilidad como acumulaciones de Capa 2 y cadenas fragmentadas que ejecutan transacciones fuera de la cadena principal de Ethereum. Los bloques que contienen transacciones ejecutadas en redes de Capa 2 deben publicarse y almacenarse en algún lugar para que el cliente ligero realice una verificación adicional.
Esto es importante para los desarrolladores que se basan en estas soluciones escalables, ya que sus aplicaciones deben poder confiar en la verificación segura del cliente ligero para verificar su corrección. También es importante para los usuarios que interactúan con estas aplicaciones de Capa 2, ya que necesitan estar seguros de que el sistema funciona según lo previsto sin tener que ejecutar nodos completos ellos mismos.
BCN: Según un informe de Blockworks Research, los costos de DA representan hasta el 90% de los costos de transacción. ¿Por qué las soluciones de escalabilidad existentes tienen dificultades para proporcionar el rendimiento y la rentabilidad necesarios para las aplicaciones descentralizadas (dapps) de alto rendimiento?
MH: Los enfoques de escalamiento de Capa 2 existentes, como Optimistic y ZK Rollups, luchan por proporcionar disponibilidad de datos eficiente a escala debido al hecho de que necesitan publicar blobs de datos completos (datos de transacciones, raíces estatales, etc.) en la red principal de Ethereum para que los clientes ligeros los muestreen y verificar. La publicación de estos datos en Ethereum conlleva costos muy altos; por ejemplo, publicar un bloque OP cuesta $140 por solo 218 KB.
Esto se debe a que el rendimiento de datos limitado de Ethereum de alrededor de 83 KB/seg significa que incluso pequeñas cantidades de datos son muy costosas de publicar en la cadena. Entonces, si bien los rollups logran escalabilidad al ejecutar transacciones fuera de la cadena principal, la necesidad de publicar datos en Ethereum para su verificabilidad se convierte en el cuello de botella que limita su escalabilidad general y rentabilidad para aplicaciones descentralizadas de alto rendimiento.
BCN: Su empresa, 0G Labs, también conocida como Zerogravity, lanzó recientemente su red de prueba con el objetivo de incorporar inteligencia artificial (IA) a la cadena, una carga de datos que las redes existentes no son capaces de manejar. ¿Podría decirles a nuestros lectores cómo la naturaleza modular de 0G ayuda a superar las limitaciones de los algoritmos de consenso tradicionales? ¿Qué hace que la modularidad sea el camino correcto para crear casos de uso complejos, como juegos en cadena, inteligencia artificial en cadena y finanzas descentralizadas de alta frecuencia?
MH: La innovación clave de 0G es separar los datos en carriles de almacenamiento y publicación de fechas de forma modular. La capa 0G DA se encuentra encima de la red de almacenamiento 0G, que está optimizada para una ingesta y recuperación de datos extremadamente rápida. Se almacenan grandes datos, como los blobs en bloques, y solo pequeños compromisos y pruebas de disponibilidad fluyen hacia el protocolo de consenso. Esto elimina la necesidad de transmitir los blobs completos a través de la red de consenso y, por lo tanto, evita los cuellos de botella de transmisión de otros enfoques de DA.
Además, 0G puede escalar horizontalmente capas de consenso para evitar que una red de consenso se convierta en un cuello de botella, logrando así una escalabilidad infinita de DA. Con un sistema de consenso listo para usar, la red podría alcanzar velocidades de 300-500 MB/s, lo que ya es un par de magnitudes más rápido que los sistemas DA actuales, pero aún no cumple con los requisitos de ancho de banda de datos para aplicaciones de alto rendimiento, como la capacitación del modelo LLM, que puede estar en las decenas de GB/s.
Una creación de consenso personalizada podría alcanzar tales velocidades, pero ¿qué pasa si muchos participantes quieren entrenar modelos al mismo tiempo? Por lo tanto, introdujimos una escalabilidad infinita mediante la fragmentación a nivel de datos para satisfacer las demandas futuras de aplicaciones blockchain de alto rendimiento mediante la utilización de una cantidad arbitraria de capas de consenso. Todas las redes de consenso comparten el mismo conjunto de validadores con el mismo estado de participación para mantener el mismo nivel de seguridad.
En resumen, esta arquitectura modular permite escalar para manejar cargas de trabajo con gran cantidad de datos, como entrenamiento/inferencia de modelos de IA en cadena, juegos en cadena con grandes requisitos estatales y aplicaciones DeFi de alta frecuencia con una sobrecarga mínima. Estas aplicaciones no son posibles en sistemas monolíticos. cadenas hoy.
BCN: La comunidad de desarrolladores de Ethereum ha explorado muchas formas diferentes de abordar el problema de la disponibilidad de datos en blockchain. Proto-danksharding, o EIP-4844, se considera un paso en esa dirección. ¿Cree que estos no alcanzarán a satisfacer las necesidades de los desarrolladores? En caso afirmativo, ¿por qué y dónde?
MH: Proto-danksharding (EIP-4844) da un paso importante hacia la mejora de las capacidades de disponibilidad de datos de Ethereum al introducir el almacenamiento de blobs. El último paso será Danksharding, que divide la red Ethereum en segmentos más pequeños, cada uno responsable de un grupo específico de transacciones. Esto dará como resultado una velocidad DA de más de 1 MB/s. Sin embargo, esto todavía no satisfará las necesidades de futuras aplicaciones de alto rendimiento como se analizó anteriormente.
BCN: ¿Cuál es la disponibilidad de datos “programables” de 0G y qué lo diferencia de otros DA en términos de escalabilidad, seguridad y costos de transacción?
MH: El sistema DA de 0G puede permitir la mayor escalabilidad de cualquier blockchain, por ejemplo, un rendimiento de datos al menos 50.000 veces mayor y costos 100 veces más bajos que Danksharding en la hoja de ruta de Ethereum sin sacrificar la seguridad. Debido a que construimos el sistema 0G DA sobre el sistema de almacenamiento descentralizado de 0G, los clientes pueden determinar cómo utilizar sus datos. Entonces, la programabilidad en nuestro contexto significa que los clientes pueden programar/personalizar la persistencia, la ubicación, el tipo y la seguridad de los datos. De hecho, 0G permitirá a los clientes volcar todo su estado en un contrato inteligente y cargarlo nuevamente, resolviendo así el problema de la inflación estatal que afecta a muchas cadenas de bloques en la actualidad.
BCN: A medida que la IA se convierte en una parte integral de las aplicaciones Web3 y de nuestra vida digital, es crucial garantizar que los modelos de IA sean justos y confiables. Los modelos de IA sesgados entrenados con datos manipulados o falsos podrían causar estragos. ¿Qué piensa sobre el futuro de la IA y el papel que podría desempeñar la naturaleza inmutable de blockchain en el mantenimiento de la integridad de los modelos de IA?
MH: A medida que los sistemas de IA se vuelven cada vez más centrales para las aplicaciones y servicios digitales que afectan a muchas vidas, es primordial garantizar su integridad, equidad y auditabilidad. Los modelos de IA sesgados, manipulados o comprometidos podrían tener consecuencias perjudiciales generalizadas si se implementan a escala. Imagine un escenario de terror en el que un agente malvado de IA entrena a otro modelo/agente que se implementa directamente en un robot humanoide.
Las propiedades centrales de Blockchain de inmutabilidad, transparencia y transiciones de estado demostrables pueden desempeñar un papel vital aquí. Al anclar los modelos de IA, sus datos de entrenamiento y los registros auditables completos del proceso de creación/actualización del modelo en cadenas de bloques públicas, podemos establecer un rastro de procedencia permanente. Esto permite un análisis de seguimiento ex post o en tiempo real para detectar cualquier manipulación, inyección de sesgo, uso de datos problemáticos, etc. que puedan haber comprometido la integridad de los modelos.
Las redes blockchain descentralizadas, al evitar puntos únicos de falla o control, pueden servir como un registro a prueba de manipulaciones y resistente a la censura para los sistemas de inteligencia artificial. Su transparencia permite la auditabilidad pública de la cadena de suministro de IA de una manera que es muy difícil con los actuales procesos de desarrollo de IA centralizados y opacos. Imagínese tener un modelo de inteligencia artificial que vaya más allá de lo humano; digamos que proporcionó algún resultado pero todo lo que hizo fue alterar las entradas de la base de datos en un servidor central sin entregar el resultado. En otras palabras, puede hacer trampa más fácilmente en sistemas centralizados.
Además, ¿cómo proporcionamos al modelo/agente los mecanismos de incentivos adecuados y lo ubicamos en un entorno donde no pueda ser malo? Blockchain x AI es la respuesta para que los futuros casos de uso social, como el control del tráfico, la fabricación y los sistemas administrativos, puedan realmente ser gobernados por la IA para el bien humano y la prosperidad.
¿Qué piensas de esta entrevista? Comparta sus opiniones en la sección de comentarios a continuación.