Capitalización Total del Mercado:$00
API
ES
Oscuro

Buscar SSI/Mag7/Meme/ETF/Moneda/Índice/Gráficos/Investigación
00:00 / 00:00
Ver
    Mercados
    Índexes
    Información
    TokenBar®
    Análisis
    Macro
    Lista
Comp

Soluciona el problema del robo de datos de la IA con la atribución onchain

Cointelegraph
1KPalabras
03/07/2025

Opinión de: Ram Kumar, contribuidor principal en OpenLedger. El público ha contribuido conscientemente al auge de la inteligencia artificial, a menudo sin darse cuenta. Como se proyecta que los modelos de IA generen billones de dólares en valor, es hora de empezar a tratar los datos como mano de obra y construir sistemas de atribución onchain para pagar a quienes los hacen posibles. Las publicaciones de los usuarios en X ayudaron a entrenar ChatGPT, y sus publicaciones de blog y respuestas en foros dieron forma a modelos que ahora son monetizados por algunas de las empresas más poderosas del mundo. Si bien esas empresas están cosechando miles de millones, los usuarios finales no obtienen nada. Ni un cheque, ni un crédito, ni siquiera un agradecimiento. Así es como se ve el trabajo invisible en el siglo XXI. Miles de millones de personas se han convertido en la fuerza laboral no remunerada detrás de la revolución de la IA. Los datos que generan, desde palabras, código, rostros y movimiento, se extraen, limpian y utilizan para enseñar a las máquinas a sonar más humanas, vender más anuncios y cerrar más operaciones. Y, sin embargo, en el circuito económico que impulsa la IA, los humanos que lo hacen posible han sido excluidos por completo. Esta historia no es nueva. El mismo modelo construyó imperios a costa del trabajo creativo no acreditado. Solo que ahora, la escala es planetaria. Esto no se trata solo de equidad, sino de poder y de si queremos un futuro en el que la inteligencia sea propiedad de tres corporaciones o compartida por todos nosotros. La única forma de redefinir la economía de la inteligencia es a través de Payable AI. En lugar de modelos de caja negra entrenados en secreto, Payable $AI propone un futuro en el que la IA se construye abiertamente, con cada contribuyente rastreable y cada uso compensado. Cada publicación, video o imagen utilizada para entrenar un modelo debe llevar una etiqueta o un recibo digital. Cada vez que se utiliza ese modelo, se debe enviar un pequeño pago al creador original de los datos. Eso es atribución, integrada en el sistema. Esto tiene precedentes. Los músicos ahora ganan regalías cuando sus pistas se transmiten, y los desarrolladores reciben crédito cuando se reutiliza su código de código abierto. La IA debería seguir las mismas reglas. El hecho de que los datos de entrenamiento sean digitales no significa que sean gratuitos. En todo caso, es el producto más valioso que nos queda. El problema es que hemos estado tratando a la IA como un software tradicional: algo que se construye una vez y se vende un millón de veces. Esa metáfora, sin embargo, se desmorona rápidamente. La IA no es estática. Aprende, se deteriora y mejora con cada interacción, debilitándose cuando los datos se agotan. De esta manera, la IA se parece más a un ecosistema vivo que se alimenta de un suministro continuo de aportes humanos, desde el lenguaje y el comportamiento hasta la creatividad. Sin embargo, no existe un sistema para dar cuenta de esa cadena de suministro ni un mecanismo para recompensar a quienes la nutren. Relacionado: La carrera de la IA entre Estados Unidos y China se asemeja a la Guerra Fría — Marc Andreessen. Payable $AI crea una economía circular de conocimiento: una estructura económica donde la participación equivale a la propiedad y donde cada interacción tiene un valor rastreable. Los agentes autónomos de IA estarán en todas partes: reservando servicios, negociando contratos y dirigiendo negocios en unos pocos años. Estos agentes realizarán transacciones y necesitarán wallets. También necesitarán acceso a modelos afinados y deberán pagar por conjuntos de datos, APIs y orientación humana. Nos dirigimos hacia el comercio de máquina a máquina, y la infraestructura no está lista. El mundo necesita un sistema para rastrear lo que usó un agente, de dónde provino esa inteligencia y quién merece que se le pague. Sin él, todo el ecosistema de la IA se convierte en un mercado negro de conocimientos robados y decisiones no rastreables. Los problemas complicados de hoy con la IA palidecen en comparación con los agentes autónomos que actúan en nombre de las personas, sin forma de auditar de dónde provino su "inteligencia". El problema más profundo, sin embargo, es el control. Empresas como OpenAI, Meta y Google están construyendo modelos que impulsarán todo, desde la educación hasta la defensa y la previsión económica. Cada vez más, son dueños del terreno. Y los gobiernos, ya sea en Washington, Bruselas o Beijing, se apresuran a alcanzarlos. XAI se está integrando en Telegram, y la mensajería, la identidad y las crypto se están fusionando cada vez más. Tenemos una opción. Podemos continuar por este camino de consolidación, donde la inteligencia es moldeada y gobernada por un puñado de plataformas. O podemos construir algo más equitativo: un sistema abierto donde los modelos sean transparentes, la atribución sea automática y el valor fluya de regreso a las personas que lo hicieron posible. Eso requerirá más que nuevos términos de servicio. Exigirá nuevos derechos, como el derecho a la atribución, el derecho a la compensación y el derecho a auditar los sistemas construidos sobre nuestros datos. Requerirá una nueva infraestructura (wallets, capas de identidad y sistemas de permisos) que trate los datos no como un desecho, sino como mano de obra. También exigirá un marco legal que reconozca lo que está sucediendo: las personas están construyendo valor, lo que merece reconocimiento. En este momento, el mundo está trabajando gratis. Pero no por mucho tiempo. Porque una vez que las personas entiendan lo que han dado, preguntarán qué se les debe. La pregunta es: ¿Tendremos un sistema listo para pagarles? Estamos arriesgando un futuro donde la fuerza más poderosa de la Tierra, la inteligencia misma, sea privatizada, irresponsable y esté completamente fuera de nuestro alcance. Podemos construir algo mejor. Primero, tenemos que admitir que el sistema actual está roto. Opinión de: Ram Kumar, contribuidor principal en OpenLedger. Este artículo tiene fines informativos generales y no pretende ser ni debe tomarse como asesoramiento legal o de inversión. Los puntos de vista, pensamientos y opiniones expresados aquí son únicamente del autor y no reflejan ni representan necesariamente los puntos de vista y opiniones de Cointelegraph.

10s para entender el mercado crypto
Términospolítica de privacidadLibro BlancoVerificación oficialCookieBlog
sha512-gmb+mMXJiXiv+eWvJ2SAkPYdcx2jn05V/UFSemmQN07Xzi5pn0QhnS09TkRj2IZm/UnUmYV4tRTVwvHiHwY2BQ==
sha512-kYWj302xPe4RCV/dCeCy7bQu1jhBWhkeFeDJid4V8+5qSzhayXq80dsq8c+0s7YFQKiUUIWvHNzduvFJAPANWA==