Opinião de: Ram Kumar, principal contribuinte da OpenLedger. O público tem contribuído conscientemente para a ascensão da inteligência artificial, muitas vezes sem se dar conta. Como os modelos de IA estão projetados para gerar trilhões de dólares em valor, é hora de começar a tratar os dados como trabalho e construir sistemas de atribuição onchain para pagar aqueles que os tornam possíveis. Publicações no X por usuários ajudaram a treinar o ChatGPT, e suas postagens em blogs e respostas em fóruns moldaram modelos que agora são monetizados por algumas das empresas mais poderosas do mundo. Enquanto essas empresas estão colhendo bilhões, os usuários finais não recebem nada. Nem um cheque, um crédito ou mesmo um agradecimento. É assim que o trabalho invisível se parece no século 21. Bilhões de pessoas se tornaram a força de trabalho não remunerada por trás da revolução da IA. Os dados que eles geram, de palavras, código, rostos e movimento, são raspados, limpos e usados para ensinar máquinas a soar mais humanas, vender mais anúncios e fechar mais negócios. E, no entanto, no ciclo econômico que alimenta a IA, os humanos que tornam tudo possível foram completamente excluídos. Esta história não é nova. O mesmo modelo construiu impérios nas costas do trabalho criativo não creditado. Só que agora, a escala é planetária. Isso não se trata apenas de justiça, mas de poder e se queremos um futuro onde a inteligência seja propriedade de três corporações ou compartilhada por todos nós. A única maneira de redefinir a economia da inteligência é através da Payable AI. Em vez de modelos de caixa preta treinados em segredo, a Payable $AI propõe um futuro onde a IA é construída abertamente, com cada contribuidor rastreável e cada uso compensado. Cada postagem, vídeo ou imagem usada para treinar um modelo deve carregar uma tag ou um recibo digital. Cada vez que esse modelo é usado, um pequeno pagamento deve ser enviado ao criador original dos dados. Essa é a atribuição, incorporada ao sistema. Isso tem precedentes. Os músicos agora ganham royalties quando suas faixas são transmitidas, e os desenvolvedores são creditados quando seu código de código aberto é reutilizado. A IA deve seguir as mesmas regras. Só porque os dados de treinamento são digitais não significa que sejam gratuitos. Se alguma coisa, é a commodity mais valiosa que nos resta. O problema é que temos tratado a IA como software tradicional — algo que você constrói uma vez e vende um milhão de vezes. Essa metáfora, no entanto, desmorona rapidamente. A IA não é estática. Ela aprende, decai e melhora a cada interação, enfraquecendo quando os dados secam. Desta forma, a IA é mais como um ecossistema vivo alimentando-se de um suprimento contínuo de entrada humana, da linguagem e comportamento à criatividade. No entanto, não há sistema para contabilizar essa cadeia de suprimentos e nenhum mecanismo para recompensar aqueles que a nutrem. Relacionado: A corrida de IA entre os EUA e a China se assemelha à Guerra Fria — Marc Andreessen. A Payable $AI cria uma economia circular de conhecimento — uma estrutura econômica onde a participação é igual à propriedade e onde cada interação tem valor rastreável. Agentes autônomos de IA estarão em todos os lugares: reservando serviços, negociando contratos e administrando negócios em alguns anos. Esses agentes estarão transacionando e precisarão de wallets. Eles também precisarão de acesso a modelos ajustados e devem pagar por data sets, APIs e orientação humana. Estamos caminhando para o comércio máquina a máquina, e a infraestrutura não está pronta. O mundo precisa de um sistema para rastrear o que um agente usou, de onde veio essa inteligência e quem merece ser pago. Sem isso, todo o ecossistema de IA se torna um mercado negro de insights roubados e decisões não rastreáveis. Os problemas complicados de hoje com a IA empalidecem em comparação com agentes autônomos agindo em nome das pessoas, sem nenhuma maneira de auditar de onde veio sua "inteligência". A questão mais profunda, no entanto, é o controle. Empresas como OpenAI, Meta e Google estão construindo modelos que impulsionarão tudo, desde educação a defesa e previsão econômica. Cada vez mais, eles são donos do terreno. E os governos — seja em Washington, Bruxelas ou Pequim — estão correndo para alcançá-los. A XAI está sendo integrada ao Telegram, e mensagens, identidade e crypto estão se fundindo cada vez mais. Temos uma escolha. Podemos continuar por este caminho de consolidação, onde a inteligência é moldada e governada por um punhado de plataformas. Ou podemos construir algo mais equitativo: um sistema aberto onde os modelos são transparentes, a atribuição é automática e o valor flui de volta para as pessoas que o tornaram possível. Isso exigirá mais do que novos termos de serviço. Exigirá novos direitos, como o direito à atribuição, o direito à compensação e o direito de auditar os sistemas construídos em nossos dados. Exigirá uma nova infraestrutura — wallets, camadas de identidade e sistemas de permissão — que tratem os dados não como exaustão, mas como trabalho. Também exigirá uma estrutura legal que reconheça o que está acontecendo: as pessoas estão construindo valor, o que merece reconhecimento. Agora, o mundo está trabalhando de graça. Mas não por muito tempo. Porque, uma vez que as pessoas entendam o que deram, elas perguntarão o que lhes é devido. A questão é: teremos um sistema pronto para pagá-las? Estamos arriscando um futuro onde a força mais poderosa da Terra — a própria inteligência — é privatizada, não responsabilizada e totalmente além do nosso alcance. Podemos construir algo melhor. Primeiro, temos que admitir que o sistema atual está quebrado. Opinião de: Ram Kumar, principal contribuinte da OpenLedger. Este artigo tem fins informativos gerais e não se destina a ser e não deve ser considerado como aconselhamento jurídico ou de investimento. As visões, pensamentos e opiniões expressas aqui são exclusivamente do autor e não refletem ou representam necessariamente as visões e opiniões do Cointelegraph.