Opinion de : Ram Kumar, contributeur principal chez OpenLedger. Le public a sciemment contribué à l'essor de l'intelligence artificielle, souvent sans s'en rendre compte. Alors que les modèles d'IA devraient générer des milliers de milliards de dollars de valeur, il est temps de commencer à traiter les données comme du travail et à mettre en place des systèmes d'attribution on-chain pour rémunérer ceux qui les rendent possibles. Les publications X des utilisateurs ont contribué à la formation de ChatGPT, et leurs articles de blog et leurs réponses sur les forums ont façonné des modèles qui sont maintenant monétisés par certaines des entreprises les plus puissantes du monde. Alors que ces entreprises récoltent des milliards, les utilisateurs finaux ne reçoivent rien. Pas de chèque, de crédit ou même de remerciement. C'est à quoi ressemble le travail invisible au XXIe siècle. Des milliards de personnes sont devenues la main-d'œuvre non rémunérée derrière la révolution de l'IA. Les données qu'ils génèrent, à partir de mots, de code, de visages et de mouvements, sont récupérées, nettoyées et utilisées pour apprendre aux machines à paraître plus humaines, à vendre plus de publicités et à conclure plus de transactions. Et pourtant, dans la boucle économique qui alimente l'IA, les humains qui rendent tout cela possible ont été complètement exclus. Cette histoire n'est pas nouvelle. Le même modèle a bâti des empires sur le dos du travail créatif non crédité. Seulement maintenant, l'échelle est planétaire. Il ne s'agit pas seulement d'équité, mais aussi de pouvoir et de savoir si nous voulons un avenir où l'intelligence est détenue par trois entreprises ou partagée par nous tous. La seule façon de redéfinir l'économie de l'intelligence est de passer à une IA payable (Payable $AI). Au lieu de modèles de boîtes noires entraînés en secret, Payable $AI propose un avenir où l'IA est construite ouvertement, où chaque contributeur est traçable et où chaque utilisation est compensée. Chaque publication, vidéo ou image utilisée pour entraîner un modèle doit porter une étiquette ou un reçu numérique. Chaque fois que ce modèle est utilisé, un petit paiement doit être envoyé au créateur original des données. C'est l'attribution, intégrée au système. Cela a des précédents. Les musiciens perçoivent désormais des redevances lorsque leurs morceaux sont diffusés en streaming, et les développeurs sont crédités lorsque leur code open source est réutilisé. L'IA devrait suivre les mêmes règles. Ce n'est pas parce que les données d'entraînement sont numériques qu'elles sont gratuites. Au contraire, c'est la ressource la plus précieuse qu'il nous reste. Le problème est que nous avons traité l'IA comme un logiciel traditionnel, quelque chose que l'on construit une fois et que l'on vend un million de fois. Cette métaphore, cependant, s'effondre rapidement. L'IA n'est pas statique. Elle apprend, se dégrade et s'améliore à chaque interaction, s'affaiblissant lorsque les données se tarissent. De cette façon, l'IA ressemble davantage à un écosystème vivant qui se nourrit d'un apport continu d'informations humaines, du langage et du comportement à la créativité. Pourtant, il n'existe aucun système pour comptabiliser cette chaîne d'approvisionnement et aucun mécanisme pour récompenser ceux qui la nourrissent. Article connexe : La course à l'IA entre les États-Unis et la Chine ressemble à la guerre froide — Marc Andreessen. Payable $AI crée une économie circulaire de la connaissance, une structure économique où la participation équivaut à la propriété et où chaque interaction a une valeur traçable. Les agents autonomes d'IA seront partout : services de réservation, négociation de contrats et gestion d'entreprises dans quelques années. Ces agents effectueront des transactions et auront besoin de wallets. Ils auront également besoin d'accéder à des modèles affinés et devront payer pour les ensembles de données, les API et les conseils humains. Nous nous dirigeons vers un commerce de machine à machine, et l'infrastructure n'est pas prête. Le monde a besoin d'un système pour suivre ce qu'un agent a utilisé, d'où vient cette intelligence et qui mérite d'être payé. Sans cela, l'ensemble de l'écosystème de l'IA devient un marché noir d'informations volées et de décisions intraçables. Les problèmes complexes d'aujourd'hui avec l'IA sont insignifiants comparés aux agents autonomes agissant au nom des gens, sans aucun moyen de vérifier d'où vient leur « intelligence ». Le problème de fond, cependant, est le contrôle. Des entreprises comme OpenAI, Meta et Google construisent des modèles qui alimenteront tout, de l'éducation à la défense en passant par les prévisions économiques. De plus en plus, elles possèdent le terrain. Et les gouvernements, que ce soit à Washington, à Bruxelles ou à Pékin, se précipitent pour les rattraper. XAI est en cours d'intégration dans Telegram, et la messagerie, l'identité et la crypto fusionnent de plus en plus. Nous avons le choix. Nous pouvons continuer sur cette voie de consolidation, où l'intelligence est façonnée et gouvernée par une poignée de plateformes. Ou nous pouvons construire quelque chose de plus équitable : un système ouvert où les modèles sont transparents, l'attribution est automatique et la valeur revient aux personnes qui l'ont rendu possible. Cela nécessitera plus que de nouvelles conditions d'utilisation. Cela exigera de nouveaux droits, comme le droit à l'attribution, le droit à la compensation et le droit de vérifier les systèmes construits sur nos données. Cela nécessitera une nouvelle infrastructure (wallets, couches d'identité et systèmes d'autorisation) qui traitera les données non pas comme des déchets, mais comme du travail. Cela exigera également un cadre juridique qui reconnaisse ce qui se passe : les gens créent de la valeur, ce qui mérite d'être reconnu. À l'heure actuelle, le monde travaille gratuitement. Mais plus pour longtemps. Car une fois que les gens auront compris ce qu'ils ont donné, ils demanderont ce qui leur est dû. La question est la suivante : aurons-nous un système prêt à les payer ? Nous risquons un avenir où la force la plus puissante de la planète, l'intelligence elle-même, est privatisée, irresponsable et totalement hors de notre portée. Nous pouvons construire quelque chose de mieux. Tout d'abord, nous devons admettre que le système actuel est défaillant. Opinion de : Ram Kumar, contributeur principal chez OpenLedger. Cet article est fourni à titre d'information générale et n'est pas destiné à être et ne doit pas être considéré comme un conseil juridique ou en investissement. Les points de vue, les pensées et les opinions exprimés ici sont ceux de l'auteur seul et ne reflètent pas nécessairement les points de vue et les opinions de Cointelegraph.