AI 뉴스
- 기사 제목 : 오픈AI, 기업 목표를 AGI에서 '초지능'으로 업그레이드..."진짜 문제는 초지능"
- 기사 링크 : https://www.aitimes.com/news/articleView.html?idxno=165939
본 문
샘 알트먼 오픈AI CEO는 인공일반지능(AGI)이 예상보다 빠르게 도래할 가능성이 있지만, 그 영향은 크지 않을 것이라며 기대치를 낮췄다. 하지만 진짜 문제는 인간 지능을 넘어서는 '초지능(super intelligence)'이라고 지적했다.
알트먼 CEO는 4일(현지시간) 뉴욕타임스 '딜북 서밋' 인터뷰를 통해 AGI는 초지능보다 낮은 단계에 있으며, 비교적 빠른 시기에 도달할 수 있을 것이라고 전망했다.
그는 "AGI는 대부분의 예상보다 빨리 도달할 수 있지만, 그것은 별로 중요한 것이 아니다"라며 "많이 우려됐던 안전 문제도 AGI 순간에는 나타나지 않을 것"이라고 설명했다.
오픈AI는 설립 초기부터 대다수의 지적 노동을 자동화하는 AGI 개발을 목표로 내세웠다. 하지만 최근에는 AGI가 2025년쯤 실현 가능하며 현재의 하드웨어로도 충분히 달성할 수 있다고 언급하는 등 목표치를 초지능으로 높이는 중이다.
이번 인터뷰에서도 AGI 정의가 과거보다 덜 거창하게 바뀐 듯한 인상을 남겼다. 과거 AGI라 부르던 개념을 이제는 초지능으로 재정의한 것이다.
그리고 “AGI 이후 초지능 단계로 넘어가는 데는 상당한 시간이 필요할 것”이라고 밝혔다. 사람들이 우려하는 점도 초지능이 야기할 것으로 예측했다.
한편, 오픈AI는 마이크로소프트와의 파트너십 계약에서 AGI에 달성할 경우 계약에서 벗어날 기회를 얻을 수 있게 된다. 영리 법인 전환 후 최대 주주인 MS가 빠져나가면 회사는 더 큰 상업적 이득을 도모할 수 있게 된다.
어쨌거나 알트먼 CEO는 AGI가 대중에게는 예상만큼 큰 변화를 가져오지 않을 수 있다고 지적했다.
추가 조사 내용
1. '초지능'과 'AGI'의 차이는...용어 세분화가 중요한 이유
링크 : https://www.aitimes.com/news/articleView.html?idxno=165030
얼마 전부터 '초지능(superintelligence)'이라는 용어가 심심치 않게 등장하고 있습니다. 샘 알트먼 오픈AI CEO와 오픈AI에서 수석과학자를 맡았던 일리아 수츠케버 SSI 공동 창립자가 대표적으로 이 용어를 사용하고 있습니다.
'인공일반지능(AGI)'이라는 말 대신 사용한 것으로 보이지만, 엄밀하게 따지면 둘을 구분해야 한다는 입장도 있습니다. 마크테크포스트는 6일(현지시간) 이 문제로 용어를 정리했습니다.
우선 AI를 ▲인공협소지능(ANI, Artificial Narrow Intelligence) ▲AGI ▲인공초지능(ASI, Artificial Super Intelligence) 등 3단계로 구분했습니다.
우선 ANI는 현재 가장 일반적인 AI, 즉 정해진 범위 내에서 특정하고 제한된 활동을 수행하도록 만들어진 AI를 말합니다. 안면 인식이나 언어 처리, 데이터 패턴 분석처럼 단일적이고 집중적인 작업에는 뛰어나지만, 프로그래밍 외부의 작업을 수행하거나 지식을 일반화하는 등 인간 같은 유연성과 확장성이 떨어지는 AI를 말합니다.
이는 '약한 AI(Weak AI)'나 '특정 목적 AI'로도 불립니다.
반면, AGI는 '강한 AI(Strong AI)'입니다. 이는 인간과 흡사한 능력을 가지는 것으로 정의됩니다.
이론적으로 인간이 할 수 있는 모든 지적 작업을 수행할 수 있고, 특정 작업에 제한되는 ANI와 달리 광범위한 활동에 걸쳐 정보를 이해하고 학습하고 적용할 수 있는 능력을 갖는 것으로 묘사됩니다.
여기에서 한발 더 나아간 것을 ASI, 즉 초지능이라고 부릅니다. 추론, 창의성, 심지어 감정 지능을 포함한 모든 면에서 인간의 지능보다 우수한 것을 말합니다.
결국 ANI가 현재 우리가 보유한 AI이고 AGI가 인간 수준의 목표라면 ASI는 AI 개발의 궁극적 종착점인 가상의 목적지를 말합니다. 흔히 특이점(singularity), 즉 AI가 문명을 근본적으로 바꾸고 인간 의미를 재해석할 정도에 도달하는 것은 ASI의 등장 순간을 의미합니다.
물론 용어는 아직 확립된 것도 아니고, 모호하기도 합니다. AGI와 ASI를 딱히 구분하는 것 같지도 않습니다. 노벨상 수상자인 제프리 힌튼 토론토대학교 교수도 얼마 전 "AGI의 개념이 아직은 모호하며, 초지능이 AGI를 설명하는데 더 정확할 것"이라고 말한 바 있습니다.
하지만 이런 용어의 등장은 그만큼 기술이 빠르게 발전하고 있으며, 과거에는 상상으로만 여겨졌던 것이 성큼 다가왔다는 증거이기도 합니다.
실제로 AGI라는 개념은 이미 1950년대 미국의 컴퓨터 과학자 집단으로부터 등장한 것으로 알려져 있습니다.
이어 본격적으로 언급된 것은 1990년대말~2000년대 초반입니다. 1997년 마크 구브루드 노스캐롤라이나대 교수가 자기 복제 시스템을 갖춘 군사용 AI 출현을 예고하며 사용했다는 이야기와 2000년대 초반 벤 고르첼 컴퓨터 과학자가 본격적으로 AGI 연구를 선도했다는 내용이 대표적입니다.
어쨌거나 등장한 지 20년을 넘긴 것으로, 이제는 용어가 세분되거나 개념이 서서히 잡혀가는 과정으로 볼 수 있습니다.
실제로 오픈AI와 구글은 AGI를 세분화한 기준을 발표하기도 했습니다. 구글은 지난해 말 AI를 0~5레벨로 구분했으며, 챗GPT는 레벨 1이라고 밝힌 바 있습니다. 이어 오픈AI도 비슷하게 5단계로 나누고 현재 자신들은 2단계 직전에 도달했다고 밝혔습니다.
중요한 것은 용어가 세분화되고 개념이 정확해질수록, 우리가 이런 기술에 대비해 무엇을 해야 하는지 더 확실히 알게 된다는 것입니다. SF 속 터미네이터와 같은 존재를 막연하게 떠올리는 것이 아니라, 안면 인식에서 발생하는 개인정보 보호나 챗GPT의 환각처럼 구체적인 문제와 해결책에 집중할 수 있다는 말입니다.
AI 안전이나 AI 윤리는 듣기 좋으라고 하는 말이 아닙니다. 그리고 AGI 대비가 어려운 것은 아직 경험해 보지 못했다는 점이 가장 큽니다. AGI에 대한 이야기가 많이 자세하게 나올수록, 우리는 목표에 근접해 가는 것일 수 있습니다.
2. 오픈AI, AGI 안전 대비 팀 또 해체..."세상은 AGI에 대해 준비 안 돼"
링크 : https://www.aitimes.com/news/articleView.html?idxno=164617
오픈AI에서 일반인공지능(AGI) 안전을 준비하던 리더가 또 팀을 떠났다. 이에 따라 팀도 해체됐다. 그는 "오픈AI는 몰론, 어떤 회사도 AGI에 대비된 회사는 없다"라고 쓴소리를 남겼다.
오픈AI의 AGI 준비 담당 수석 고문인 마일즈 브런디지는 23일(현지시간) X(트위터)를 통해 회사를 떠난다고 발표했다.
그는 "오픈AI에서 안전에 대한 연구 제약이 너무 심해졌다"라며 제약이 없는 자유로운 비영리단체에서 관련 연구를 계속하겠다고 밝혔다.
특히 "오픈AI나 다른 어떤 첨단 연구소도 AGI에 준비가 돼 있지 않고, 세상도 준비가 돼 있지 않다"라고 강조했다. 이어 "분명히 말하지만, 이 발언은 오픈AI에서도 논란이 될 것으로 생각하지 않는다"라며 "언젠가는 회사와 세계가 대비를 할 것이 사실과 현재 그렇지 못하다는 것은 별개의 사실이기 때문"이라고 설명했다.
이번 발언은 지난 5월 오픈AI를 떠나 앤트로픽에 합류한 얀 라이케 정렬팀 리더의 말과 흡사하다. 그도 "몇달 동안 컴퓨팅 지원을 받지 못하는 등 중요한 연구를 수행하는 것이 점점 더 어려워졌다”라며 “그동안 안전 문화와 프로세스는 빛나는 제품 뒤로 밀려났다"라고 비판했다.
브런디지는 지난 6년 동안 회사의 AI 안전 이니셔티브를 담당해 왔다. 그의 퇴사로 오픈AI는 AI 준비(AGI Readiness) 팀을 해체했다. 이는 5월 초정렬 팀에 이은 두번째 AGI 관련 안전 팀의 해체다.
대신 오픈AI는 새로운 AI 모델 출시에 앞서 안전 검토를 담당하는 위원회를 신설하고, 지난달 독립적인 이사회 감독 조직으로 분리했다.
브런디지의 퇴사는 오픈AI의 영리기업 전환과도 관련이 있을 것이라는 분석이다. 산업 편향과 이해 상충이 없는 독립적인 의견이 필요하다는 점을 강조한 게 그 예다.
하지만 이런 입장에도 불구하고 브런디지는 오픈AI가 아무런 조건 없이 자금 지원, API 크레딧, 초기 모델 접근 권한을 제공해 작업을 지원하겠다는 제안을 했다고 언급했다.
마무리
여기까지 오늘의 기사 스크랩이었습니다. 이번에는 인공일반지능 AGI에 대한 기사를 스크랩하였습니다. 자율 주행에도 레벨이 있듯이, 이제 인공 지능에도 단계가 있다는 사실을 알게 되었습니다. Chat GPT가 레벨 1 단계라고 하니, 나중에 나타날 초지능은 얼마나 삶을 바꾸어줄지 가늠이 되질 않습니다. 이에 대해서 인공일반지능과 초지능의 용어 차이에 대해서 알아보는 시간을 가졌고 추가적으로 AGI에 대한 안전 문제와 대비 관련 기사를 스크랩하였습니다. 점점 발전하는 기술도 정말 중요하지만 그만큼 안전에 대한 대비책 그리고 이를 꼼꼼하게 검토해나가는 것도 정말 중요한 일 중 하나인 것 같습니다.