반응형

open ai
open ai

샘 알트만이 7조 달러라는 엄청난 규모의 자금 조달을 추진한다는 소식이 알려지면서 큰 화제가 되고 있습니다. 애플과 마이크로소프트 시총을 합쳐도 6조 달러정도라고 하니 얼마나 큰 금액인지 감이 오시나요? 왜 이렇게 샘 올트먼이 큰 금액의 투자를 유치하고자 하는지 알아보도록 하겠습니다.


1. 단기적 목표 - AI 학습을 위한 반도체 확보

OpenAI의 생성형 AI Chat GPT를 학습시키기 위해서는 반도체가 무수히 많이 필요합니다. 구글, 아마존, 메타 등 테크 기업들은 과거부터 자체 AI 개발, 자체 반도체 개발(구글의 TPU 등)에 나서고 있죠. 혹시 지금의 반도체 강자라고 하면 어떤 기업이 떠오르시나요? 바로 엔비디아죠. 하지만 엔비디아의 반도체는 게임 등 그래픽 처리 목적으로 만들어졌기 때문에 AI 학습에는 적합하지 않습니다. 결국 AI 학습에 최적화된 반도체가 대량으로 필요하기 때문에 샘 올트먼은 투자를 유치하기에 이르렀습니다.

2. 장기적 목표 - AGI 구축

openai의 사명
OpenAI의 AGI 구축에 대한 목표

OpenAI의 사명이기도 한 AGI. AGI란 Artificial General Intelligence로 인간과 같은 수준 또는 그 이상의 지능을 가진 인공 지능을 의미합니다. AGI의 특징은 크게 세 가지로 정의할 수 있습니다.

  • 일반적인 지능: 특정 분야에 국한되지 않고 다양한 분야에서 인간과 같은 수준의 지능 발휘
  • 스스로 학습하는 능력: 스스로 정보를 받아들이고, 경험, 새로운 지식을 창출
  • 의식: 스스로 정보를 받아들이고, 경험할 수 있다면 의식을 가지는 것도 가능하지 않겠냐는 것. 여기에 대해서는 논쟁이 있음

핵심은 두 번째 특징인 스스로 학습하는 능력이라고 생각합니다. AGI가 인간에 해를 끼칠 것이라는 두려움이 나오는 이유도 스스로 학습하는 능력때문이죠.

그래서 OpenAI의 AGI 구축 목표는 인류에게 긍정적인 영향(기후 변화, 빈곤, 질병 등 문제 해결에 도움을 주는 것 등)을 미치는 AGI의 구축이면서도, 안전한 AGI의 구축이 목표입니다. AGI에 대한 샘 올트먼이 직접 작성한 문서에 보면 AI의 Safety에 대해 작성된 것을 확인할 수 있습니다.

Importantly, we think we often have to make progress on AI safety and capabilities together. It’s a false dichotomy to talk about them separately; they are correlated in many ways. Our best safety work has come from working with our most capable models. That said, it’s important that the ratio of safety progress to capability progress increases.

그리고 개인적으로 눈에 띄는 부분은 AGI의 이익과 접근성이 공정하게 분배될 수 있도록 정책 연구를 한다는 점이었습니다. 

We want the benefits of, access to, and governance of AGI to be widely and fairly shared.

자본주의에 완전히 반대되는 부의 분배 방식인데 이게 과연 성공 가능할까요? 저는 부정적으로 생각합니다. 평범한 사람인 저로서는 도대체 어떤 시스템으로 저게 가능할지 상상이 안 가네요. 그리고 자본주의는 최소한 지금까지 인류가 개발한 가장 완벽한 자본 시스템이니까요. 그에 반대되는 개념이나 시스템이 있었지만 사장되어 왔죠. 물론 이 사실이 앞으로도 자본주의 보다 더 나은 시스템이 나타나지 않을 것이다란 것을 말하는 것은 아니지만요.

 

얼마 전에 샘 알트만을 오픈AI에서 퇴출시키는 쿠데타가 있었습니다. 제 개인적인 생각으로도 최근 갑자기 오픈AI(샘 알트만)가 "돈에 미쳤나?"싶을 정도로 공격적으로 마케팅, 투자 유치 행보를 보이고 있는데요. 아마 내부 이사회에서 이런 우려가 있어서 샘 알트만을 퇴출시키려 했던 것으로 보이네요.


요약: 샘 올트먼의 최근 7조 달러 자금 조달은 단기적으로 AI용 반도체 수급, 장기적으로는 AGI 구축을 위해서다.

 

함께 보면 좋은 글)

샘 알트만 해임 사건과 큐스타

반응형
반응형

최근 오픈AI에서 일어난 샘 알트만 해임 사건과 큐스타에 대해 간단히 알아봅니다.

 

배경


  • 샘 알트만(Sam Altman) 최근 행보는 아래와 같음
    • AGI(Artificial General Intelligence, 범용 인공 지능)에 도달할 기술 개발했다는 공식 석상 발표(11월 16일) -> OpenAI 해임(11월 17일) -> OpenAI 복귀(11월 22일)

  • 알트만은 APEC CEO summit에서 "오픈 AI가 중요한 순간 중 하나를 경험했다"며 중요한 발견을 언급한 후 다음 날 해임 당함
  • 11월 16일에 발표한 이 발언은 AGI에 도달할 수 있는 기술을 개발 중이라는 것으로, 이름은 큐스타(Q-Star)로 알려짐
  • 오픈AI 소속 일리야 수츠케버(Ilya Sutskever) 주도로 이루어진 GPT-Zero 프로젝트에서 test-time computation이라는 기계 학습 핵심 개념을 이용해, 코드 생성팀과 수학 생성팀을 결합한 새 조직을 통해 큐스타를 개발

큐스타(Q-Star)


  • 현재의 대부분 LLM은 데이터와 통계 기반으로 학습한 뒤, 단어 예측을 통해 질문에 대한 답변을 해주는 원리로, 구글의 트랜스포머(Transformer) 모델을 기반으로 함

  • 이는 학습 데이터가 없는 질문에 대해서는 답변을 할 수 없다는 것이며, GPT를 사용할 때 "GPT는 ~ 까지의 데이터만 학습되어 있습니다." 라는 점을 강조하는 이유임
  • 또한 구글이 이 분야의 강자로 알려진 이유는 전 세계의 검색 시장을 장악하고 있으며, 사용자들이 올리는 모든 데이터는 학습 데이터로 활용할 수 있기 때문
    • 물론 이 때 모든 데이터들이 양질의 데이터는 아니기 때문에 양질의 데이터를 거르는 작업은 필수
  • 이러한 특징은 수학 문제에도 동일하게 적용되어, 기존 모델들은 학습한 범위 내의 수학 질문에 대해서만 답을 할 수 있음
  • 하지만 큐스타 학습하지 않은 새로운 수학 문제의 정답도 맞힐 수 있음
  • 이는 사람처럼 보유 하고 있는 지식을 응용해 학습하지 않은 새로운 문제도 해결할 수 있는 능력(추론 능력)을 가지고 있기 때문
  • 큐스타가 가지고 있는 지식으로 새로운 문제를 해결할 수 있다는 것은 AGI에 가까워졌다는 것을 의미하고, 샘 알트만은 이 사실을 최근에 발표한 것

일리야 수츠케버(Ilya Sutskever)


  • 수츠케버는 이스라엘계 캐나다인 컴퓨터 과학자로 OpenAI 공동 창립자 중 한 명임

 

  • 재밌는 것은 수츠케버는 샘 알트만 해임 사건의 주도자이며, 위에서 언급한 큐스타의 개발 핵심 멤버이자 이사
    • 수츠케버는 쿠데타 후 나중에 자신의 행동을 후회하고 알트만 복귀를 요구한 오픈 AI 직원 편에 섰음
  • 16일 공식 석상에서의 AGI에 도달할 기술에 대한 알트만의 발언 후 수츠케버 주도로 알트만 해임이 이뤄졌다는 것을 보아, 큐스타에 대해 내부적으로 갈등이 있었던 것으로 보임
    • OpenAI는 표면적으로 비영리 기업이며, 안전하고 유익한 AGI 구축을 목표로 함
 

OpenAI

Creating safe AGI that benefits all of humanity

openai.com

  • 수츠케버는 MIT와의 인터뷰에서 "모든 AI 기술이 어디로 향하고 있는지에 대해 이야기하는 것이 중요하다"라는 말을 함
  • OpenAI의 사명, 수츠케버의 인터뷰, 최근 사건들을 보았을 때, 큐스타의 안정성, 개발 방향성에 대한 내부 인원들의 정립 및 합의가 제대로 이뤄지지 않은 상태에서 샘 알트만이 공식 석상에서 공개를 해버렸고, 이러한 갈등으로 인해 최근 샘 알트만을 둘러싼 모든 사건들이 일어난 것으로 예상됨
  • 어쨌든 샘 알트만은 오픈AI로 복귀를 했고, 앞으로 우리가 주목해서 봐야할 것은 공개될 큐스타에 대한 것임
  • 기술로 인한 엄청난 사회 문화적 변화가 있을 때 우리는 "특이점이 온다" 라는 표현을 사용하는데, 최근의 기술 발전들을 보았을 때, 근 2~3년은 모르겠고 정말 2030년 정도가 되면, "특이점이 온다" 라는 표현이 현실이 될 수 있을 것으로 보임
반응형

+ Recent posts