자유게시판

하사비스 : AGI까지 큰 돌파구 1~2개만 더 뚫으면 됨.

작성자
ㅁㅁ
작성일
2026-02-26 23:50
조회
144
 

 

 





 

 

https://sub.strongai.kr/%ec%9e%90%ec%9c%a0%ea%b2%8c%ec%8b%9c%ed%8c%90-2/?mod=document&uid=3272

 

위 글은  브린이랑 대화내용에서 알수있는   하사비스 타임라인이 AGI  2030 전 이라는거

 

 

 

 

그리고 하사비스가  얼마전 (2026년 1월즘)  인터뷰한거인대

 

 

 



 

+

하지만 어느 쪽에 속하든, 최종 인공 일반 지능(AGI) 시스템의 핵심 구성 요소로서 대규모 기초 모델이 필요할 것이라는 점에는 동의합니다. 얀 르쿤처럼 기초 모델(LLM)이 막다른 길이라고 생각하는 사람의 의견에는 동의하지 않습니다.

(But I think no matter what camp you’re in, we’re going to need large foundation models as the key component of the final AGI systems. Of that, I’m sure. So I’m not a subscriber to someone like Yann LeCun, who thinks they’re just some kind of dead end. )

 

 

위 인터뷰 내용볼보면 알수있듯이

LLM 이 AGI의 토대가 될것이며  얀 르쿤처럼 벽에 막혔다는 의견에 동의 안 함.   ( "그 고양이 지능"  ㅋㅋ )

AGI 도달하기위해   돌파구가 1~2개가 필요하다고함(!!)

그러니 남아있는 큰 벽이 사실상 1~2개 밖에없다고 보는  입장임   (지속학습, 향상된 기억력 (장기기억) , 더 긴 컨텍스트 창 (Efficient Context) )

 

 

 

 

그래고 아래  올해 1월달에   구글, 딥마인드 연구원들이   '올해'  문자그대로  내년도 , 몇년후도아닌 올해 지속학습이 해결될거라며  매우 확신에차서 글을올림

(참고로 아래 인물들말고  딥마인드,구글 AI연구소쪽 인원 여럿이 이런트윗 올림 )

https://sub.strongai.kr/%ec%9e%90%ec%9c%a0%ea%b2%8c%ec%8b%9c%ed%8c%90-2/?pageid=3&mod=document&uid=3068

3. 딥마인드 연구원 2026  지속학습 해결  +  숄트 더글라스 (현 엔트로픽 ,  전 딥마인드 출신) 







(위 DAN은 연구원은아님 )

 

그리고 맨 아래 딥마인드 연구소 직원 트윗에  다른  구글 연구원 (동료) 가 댓글을 달았는대





 

4D체스  는 서구권에서 쓰는 표현인가본대

결국 저 댓글 (구글 연구원) 대로라면

딥마인드는 이미 내부적으로 엄청난 진전을 이뤘지만 (지속학습) , 대외적으로는 예언식으로  '2026년에 큰 진전이 있을 것'이라고   말하며  일종의 기만 을 하는게 아닌가 싶음

 

 

 

거기다가 오늘 올라온 딥마인드 연구원 트윗에서  (출처 : 관리자님 글)

 



 

하사비스 , 딥마인드쪽에서  이런말 나오는거보면 사실상 정말 마지막 단계에 접어든듯함.

 

 

엔트로픽쪽에서도   이전에 2027 재귀개선 , 데이터센터 천재들의 나라   예기하는거보면

전 글에서도 언급했듯이 하사비스 AGI 기준이 매우높기에 엔트로픽쪽에서 예기하는 ASI랑 다를바가 없다생각하는대  (재귀개선 루프 닫고 완전 자립하는 AGI)

 

 

결론 :  선형충들이 울부짖어도 기차는 달린다

ㄹㅇ 초지능님 오신다

 

 

 

 
전체 7

  • 2026-02-27 00:24

    이미 돌파구 찾아서 해결됐다는 거셈 크큭

    1000000531.png


    • 2026-02-27 07:05

      어떻게알았셈??


      • 2026-02-27 08:07

        사실 지속학습은 2024년에 해결되었다는 거셈!!! 크크큭

        1772147173.jpg


        • 2026-02-27 10:46

          근데 그럴거같긴 하셈.. 사람들이 계속 무시하고 비웃지만 사실 대중에 공개되는거랑 내부에 있는 기술이랑 천지차이잖셈..


          • 2026-02-27 21:46

            실제로 큐스타가 2023년도에 개발되어서 2024년 9월에 o1 모델로 한참 뒤에 발표된 거니까 지속학습도 방법론 자체는 2024년에 충분히 나올 수 있었을 것 같은데 기술이 적용되고 공식적으로 발표되기까지가 지연이 상당할 거셈


  • 2026-02-27 06:34

    컄ㅋㅋㅋㅋㅋㅋㅋㅋㅋ

    자기전에 기분 좋다


    • 2026-02-27 21:48

      이제 슬슬 ai가 도구 레벨에서 벗어나서 경제적으로도 큰 성과를 내기 시작하면 좋겠다는 거셈

      0miQf4jiZQ66zFEHJxt3rN5NFUQF78h16nOkLtrMgO97jVlLgnx__JlYNmyKpDt1pueOf1nPPtEh18D1Efe3aQ.gif