Valor total de mercado:$00
API
PT
Escuro

PesquisarSSI/Mag7/Meme/ETF/Moeda/Índice/Gráficos/Pesquisa
00:00 / 00:00
Visualizar
    Mercados
    Índexes
    Feed de notícias
    TokenBar®
    Análise
    Macro
    Favoritos
Partilhar
SingularityNET

À medida que nos aproximamos de 2029, o ano que Ray Kurzweil previu para a AGI, poucos executivos e pesquisadores em todo o Vale do Silício e além ainda afirmam que o paradigma de escalonamento de pré-treinamento nos levará até lá.

Durante uma entrevista recente, Demis Hassabis, CEO da Google DeepMind, descreveu o que ele vê como os principais desafios enfrentados pelos sistemas de IA atuais. De acordo com Hassabis, os modelos de hoje carecem de "verdadeira invenção e pensamento imediatos", distinguindo entre resolver problemas matemáticos existentes e criar conjecturas totalmente novas, como a hipótese de Riemann.

Ele também apontou para um problema crítico de consistência: mesmo usuários comuns podem identificar facilmente falhas em sistemas que, teoricamente, deveriam superar a capacidade humana. "Existe uma espécie de lacuna de capacidades e uma lacuna de consistência antes de chegarmos ao que eu consideraria AGI", disse ele.

François Chollet, cofundador do ARC Prize, identificou o que ele acredita serem limitações arquitetônicas fundamentais nos modelos atuais. Durante sua palestra no mês passado na AI Startup School, Chollet argumentou que os modelos de deep learning estão "perdendo a generalização composicional" e carecem da capacidade de realizar "recombinação imediata" de conceitos aprendidos.

Ele observou que, mesmo após um aumento de escala de 50.000x no tamanho do modelo, o desempenho em tarefas de inteligência fluida (a capacidade de entender algo que você nunca viu antes na hora) mal melhorou, passando de 0% para aproximadamente 10% de precisão. De acordo com Chollet, o gradiente descendente requer "três a quatro ordens de magnitude mais dados do que os humanos precisam" para destilar abstrações simples.

Embora os LLMs atuais, sem dúvida, impulsionem uma transformação econômica e social significativa, suas limitações cognitivas destacam a necessidade de abordagens fundamentalmente diferentes para alcançar a verdadeira AGI. Nosso Chief AGI Officer, Dr. Alexey Potapov, argumenta que "as limitações dos LLMs estão agora se tornando geralmente claras, juntamente com seus pontos fortes impressionantes", mas acredita que a solução está em tratá-los como componentes especializados, em vez de controladores centrais.

Essa abordagem se alinha com nossa compreensão da cognição humana: o cérebro funciona por meio de várias centenas de sub-redes distintas, cada uma desempenhando funções específicas enquanto coopera com as outras. Assim como as redes transformer não correspondem de perto a nenhuma rede cerebral biológica específica, o caminho para a AGI pode exigir o tratamento dos LLMs como um componente entre muitos, subordinado aos sistemas de controle executivo e acoplado a outras redes que operam em princípios diferentes.

Essa perspectiva multi-modular e décadas de estudo cuidadoso da psicologia cognitiva humana informam nossa P&D no OpenCog Hyperon, que integra redes neurais profundas como LLMs, aprendizado de programa evolutivo, programação probabilística e outros métodos em uma arquitetura comum para criar um sistema que possa, como nosso CEO, Dr. Ben Goertzel, prevê, lidar com a complexidade do mundo real e "inventar e criar e construir e comunicar de forma autônoma e criativa, com base em seus próprios valores e inclinações".

Tudo o que você precisa saber em 10s
TermosPolítica de PrivacidadePapel BrancoVerificação oficialCookieBlogue
sha512-gmb+mMXJiXiv+eWvJ2SAkPYdcx2jn05V/UFSemmQN07Xzi5pn0QhnS09TkRj2IZm/UnUmYV4tRTVwvHiHwY2BQ==
sha512-kYWj302xPe4RCV/dCeCy7bQu1jhBWhkeFeDJid4V8+5qSzhayXq80dsq8c+0s7YFQKiUUIWvHNzduvFJAPANWA==