AI 뉴스
- 기사 제목 : SK하이닉스가 AI 시대 주역으로 떠오른 배경
- 기사 링크 : https://www.seoulwire.com/news/articleView.html?idxno=612779
본문 및 헤드라인
SK하이닉스가 인공지능(AI) 시대 주역으로 성장하고 있다. 여기엔 고대역폭메모리(HBM)의 선제적 개발과 미국의 반도체업체 엔비디아와 동맹관계를 형성한 것이 결정적 장면으로 꼽힌다.
그간 삼성전자에 이어 2인자의 위치로 여겨졌던 SK하이닉스는 HBM시장에서 선두를 쟁취하며 단숨에 전 세계가 주목하는 ‘HBM의 명가’로 자리매김 했다. 주요 AI업체들이 SK하이닉스의 문을 두들기는 이유는 SK하이닉스가 고품질의 HBM을 생산하기 때문이다.
SK하이닉스의 HBM 기술 개발 역사는 길다. 2013년 12월 HBM 제품을 업계 최초로 내놓은 데 이어 2019년 8월 업계 최고속인 ‘HBM2E’를 개발했다. 이는 AI·머신러닝·빅데이터 서비스에 적합한 고사양 메모리 솔루션이었다.
2021년 10월에는 ‘HBM3’를 내놓으며 다시 한번 업계 최초 개발이라는 기록을 세웠다. 이후 최신 세대 HBM인 ‘HBM3E’도 지난해 8월 세계 최초로 개발해내며 역량을 입증했다.
SK하이닉스의 HBM은 까다롭기로 소문난 엔비디아를 만족시킨 만큼 신뢰도는 상당하다. 반도체업계 관계자는 “엔비디아에 납품되는 제품들은 검증을 통과하기가 매우 어렵다”며 “SK하이닉스가 엔비디아의 내년 물량까지 확보한 것 자체가 신뢰성의 증명”이라고 말했다.
전 세계 AI시장을 쥐락펴락 하는 엔비디아와 협력관계 밀도는 갈수록 높아지고 있다. 내년에 출시될 엔비디아의 차세대 AI가속기 ‘블랙웰 울트라’에서 SK하이닉스의 ‘HBM3E’ 12단 사용할 것으로 업계는 내다보고 있다.
엔비디아가 AI시장을 독식하며 SK하이닉스는 그 지위를 같이 가져가고 있다. 내년 중반까지 엔비디아향 HBM시장은 사실상 SK하이닉스의 독점 상태가 유지될 것으로 전망된다.
노근창 현대차증권 연구원은 “SK하이닉스는 차별화된 패키징 공법을 통해 엔비디아 내 1등 지위는 한동안 유지될 것으로 전망된다”고 말했다.
실적도 확연히 개선될 것으로 보인다. 노 연구원는 “SK하이닉스의 2분기 실적이 전망치(컨센서스)를 17.6% 상회하는 4조9000억원을 기록할 것”이라고 예상했다.
SK하이닉스 관계자는 “HBM3에 이어 D램 최고 성능이 구현된 HBM3E도 가장 먼저 고객에게 공급하게 됐다”며 “HBM3E 양산도 성공적으로 진행해 AI 메모리반도체 시장에서의 경쟁 우위를 이어가겠다”고 말했다.
하지만 추격자들의 기술 개발 속도도 빨라 SK하이닉스는 안도할 수 없는 입장이다. 삼성전자와는 HBM 적층 경쟁을 벌이고 있다. 삼성전자는 업계 최초로 12단으로 쌓아 올린 HBM3E를 개발했다. 이 기술이 적용된 HBM3E가 곧 양산에 들어가고 생산능력도 2.5배 이상 확보할 계획이다. 삼성전자는 최근 엔비디아 경쟁사인 AMD에 HBM을 납품하기도 하며 경쟁력을 인정받았다.
SK하이닉스는 적층 경쟁에 발을 빼지 않았다. 지난 2월 국제고체회로학회(ISSCC) 콘퍼런스에서 16단 HBM3E 기술을 공개했다. 삼성전자의 12단 제품보다 더 높게 쌓아 올리겠다는 것이다. SK하이닉스는 올해 안에 16단을 적용한 차세대 HBM인 ‘HBM4’를 개발해 2026년에 양산하겠다는 계획을 세웠다.
전 세계에서 HBM을 생산하는 3개 업체(SK하이닉스·삼성전자·마이크론)에 해당되는 미국 마이크론도 후발 주자로 여겨졌지만 기술 개발 속도가 빠르다. 마이크론은 지난 2월 세계 최초로 HBM3E 양산을 선언했다. 다만 마이크론의 HBM3E는 아직 엔비디아 성능 검증 절차를 완료하지 못해 납품에 이르지는 못했다.
반도체업계 관계자는 “HBM3E 양산을 놓고선 성능·수율 면에서 SK하이닉스가 마이크론을 앞선 것으로 보인다”며 “하지만 마이크론도 HBM3E를 최초 양산할 정도로 시장에서 두각을 나타내고 있고 삼성전자도 12단 HBM3E 제품으로 전환점을 마련하겠다고 나선 만큼 고용량·적층 경쟁은 계속 이어질 것”이라고 말했다.
한편 시장조사업체 트렌드포스에 따르면 SK하이닉스는 지난해 HBM 시장에서 점유율 49%를 거두면서 세계 1위를 유지했다. 삼성전자는 점유율 46%로 SK하이닉스를 바짝 뒤쫓고 있다. 마이크론은 5%를 차지했다.
추가 조사할 내용 및 요약
1. AI성장에 가속도 붙은 'HBM'... 승자는 누구?
링크 : https://www.e-patentnews.com/11226
엔비디아와 삼성전자의 협력 기대감으로 뜨거운 시장이 된 ‘HBM'
HBM은 'High Bandwidth Memory'의 약자로 고대역폭 초고속 메모리로, 고해상도 그래픽과 데이터센터, 인공지능 등 대량의 데이터 처리와 고속 데이터 전송에 사용되는 칩(chip)이다. 대역폭은 일련의 시간 내에 데이터를 전송하는 속도나 처리량, 즉 데이터 운반 능력을 의미한다.
HBM은 우리나라에서 최초 개발됐다. 지난 2013년 SK하이닉스가 세계최초로 HBM을 양산한 것을 시작으로 여러 세대 개발을 거쳐 지금의 5세대, 6세대 발전까지 이르렀다.
HBM이 왜 최근 이슈일까? 바로 HBM이 AI 경쟁의 열쇠이기 때문이다. 갈수록 국가 및 기업 간의 AI, 인공지능 경쟁이 치열한 가운데, 많은 정보를 빠르고 정교하게 처리할 수 있는 컴퓨팅 능력에 HBM은 매우 중요한 필수품이기 때문에 HBM 개발 경쟁은 더욱 뜨거워질 수밖에 없다.
HBM의 시초이지만 여전히 시장을 주도 중인 SK하이닉스의 HBM 특허기술은 어떨까?
이 기술은 SK하이닉스가 출원한 HBM 메모리 구조이다. 메모리 내에 공유 채널을 구비하여 다수의 칩이 공유 채널을 통해 메모리를 공유할 수 있도록 하는 메모리 구조로, 이 메모리 시스템에는 칩과 긴 스택 메모리 간의 엑세스 타이밍과 데이터 공유를 관리할 수 있는 제어기가 포함되어 있다.
엔비디아의 선택을 받을 수도 있는 삼성전자 역시 후발주자이지만 차세대 HBM 시장의 게임체인저를 노리고 있다. 그렇다면 삼성전자는 어떤 HBM 기술을 개발했을까? 이 기술은 삼성전자가 출원한 HBM 시스템으로 삼성이 직접 개발한 ‘멀티 레벨 시그널링’이란 기술을 적용해 더욱 빠른 디지털 신호 처리가 가능한 시스템이다.
멀티 레벨 시그널링에 앞서 이 기술을 이해하기 위해서는 ‘인터포저’부터 알아야 한다. 인터포저는 미세 공정으로 제작된 상기 반도체 칩과 상기 패키지 기판 사이에 추가적으로 삽입하는 미세회로 기판을 의미한다. 반도체 기술을 기반으로 제조되는 실리콘 인터포저는 제작에 매우 많은 비용을 필요로 한다.
그래서 삼성전자는 멀티 레벨 시그널링을 이용하여 인터포저 없이도 신호처리가 가능한 고대역폭 메모리 시스템을 개발한 것이다. 이 덕분에 비용은 줄이고 더욱 빠르고 경량화된 HBM칩을 기대할 수 있다.
HBM 글로벌 경쟁에는 우리나라의 SK하이닉스와 삼성전자만 있지 않다. 바로 미국의 세계 3위 메모리 반도체 기업 마이크론 역시 강력한 경쟁기업이다. 무엇보다 마이크론은 미국의 자국 기업인 엔비디아와 AMD 간의 긴밀한 협력을 토대로 갈수록 점유율을 키워가고 있다. 최근에는 마이크론 5세대 HBM을 양상에 나섰다.
그럼 마이크론은 어떤 HBM기술을 개발했을까? 이 특허는 마이크론의 가장 기본적인 HBM 시스템이다. 8개의 메모리 뱅크를 사용하여 끊김없는 엑세스 처리를 지원하고 각 채널들은 서로 유연하게 고속의 데이터를 입출력할 수 있다.
챗GPT부터 AI소라에 이르기까지 이제 AI 인공지능은 모든 전문가들의 예측을 뛰어넘는 속도와 수준으로 고도 성장중이다. 시장 전망이 밝은 AI의 덕분에 두뇌 역할을 하는 HBM 개발과 경쟁은 본격화되고 있다.
삼성전자의 12단 HBM 개발은 물론 SK하이닉스 역시 이미 8단 5세대 HBM칩 양산을 시작했고, 마이크론 역시 8단 HBM칩 양산에 들어갔다. 당분간은 주도권을 쥔 SK하이닉스가 앞설 것으로 예상되는 가운데 삼성전자와 마이크론의 추격전도 기대된다.
2. 스마트폰과 온디바이스(on-device) AI의 미래
링크 : https://news.skhynix.co.kr/post/all-around-ai-5
온디바이스 AI란 무엇일까?
온디바이스 AI를 이해하려면, 먼저 그 반대 개념인 클라우드 기반 AI를 알아야 한다. 대다수 일반적인 AI는 클라우드 기반으로 작동한다. 예를 들어, GPT-4, 클로드(Claude) 3.5, 코파일럿(Copilot) 같은 AI 서비스는 모두 대규모 데이터 센터에서 운영된다. 이러한 이유로 인터넷 연결이 끊기거나 클라우드 자체가 마비되면 AI를 사용할 수 없다는 큰 단점이 존재한다. 또한, 클라우드 AI는 사용자의 질문과 데이터가 모두 클라우드로 전송되기 때문에 보안 문제가 발생할 가능성이 있으며, 데이터 전송에 비용과 시간이 필요하다. 반면, 온디바이스 AI는 규모가 작아 기능이 다소 제한적일 수 있지만, 클라우드에 연결하지 않고도 바로 서비스를 이용할 수 있다. 이로 인해 앞서 언급한 불편함을 겪지 않아도 된다는 장점이 있다.
온디바이스 AI는 크게 세 가지 구성 요소로 이뤄진다[그림 1 참고]. 첫 번째 구성 요소는 디바이스로, 이는 가장 기본적인 요소다. 디바이스는 스마트폰, PC/노트북, 자동차, 공장 자동화 기기 안의 IoT 디바이스, 그리고 신호등이나 주차장에 설치된 센서 등 다양한 시스템이다.
두 번째 구성 요소는 디바이스 내장 AI다. AI는 크게 전통적인 AI와 생성형 AI로 구분된다. 전통적인 AI는 주로 이미지나 영상 인식 같은 간단한 분류 작업을 수행하며, 한 가지 일만 처리하는 특성을 갖고 있다. 반면, 생성형 AI는 하나의 AI가 번역, 통역, 이미지 인식, 음성 대화 등 다양한 작업을 수행할 수 있다는 점에서 차별화된다. 최근 주목받고 있는 생성형 AI 기술 중 하나인 거대 언어 모델(LLM, Large Language Model)은 기존 AI에 비해 월등한 성능을 보여 많은 관심을 끌었다. 생성형 AI는 점점 소형화되어 이제는 스마트폰에도 탑재될 수 있게 되었으며, 이에 따라 온디바이스 AI에 대한 관심도 더욱 높아질 것으로 예상된다.
세 번째 구성 요소는 온디바이스 AI의 용도다. 모든 AI는 크게 두 가지 작업 단계를 가진다. 대량의 데이터를 학습하는 단계인 ‘학습(training)’과 학습이 완료된 모델에 실데이터를 입력해 결과를 도출하는 ‘추론(inference)’이다. 그런데 온디바이스 AI는 추론과 학습 가능성에 따라 두 가지 용도로 나뉜다. 현재까지 온디바이스 AI는 하드웨어 제약 때문에 추론만 가능했다. 그러나 앞으로 하드웨어가 발전하면, 학습이 가능한 온디바이스 AI가 등장할 것으로 예상된다. 현재 스마트폰용 생성형 AI의 크기는 작지만, 거대한 클라우드 컴퓨터에서 학습한 결과물을 활용할 수 있다. 만약 디바이스 내 반도체에서 직접 학습이 이루어진다면, 온디바이스 AI는 사용자의 데이터를 학습하고, 한 단계 더 높은 혁신적 차원에 도달할 수 있을 것이다.
위와 같은 온디바이스 AI의 세 가지 구성 요소는 서로 결합하면서 각각 독립적인 온디바이스 AI 영역을 형성한다. 이러한 조합의 경우의 수를 모두 고려했을 때, 5가지 디바이스, 2가지 AI, 2가지 용도로 총 20가지 시장이 형성될 수 있음을 알 수 있다[그림 1 참고]. 예를 들어, ‘스마트폰 - 생성형 AI - 추론형’이라는 프로세스를 구성했다면, 다음으로는 ‘스마트폰 - 생성형 AI - 학습형’과 같은 방식으로 다양한 프로세스를 만들 수 있다. 이러한 선택지의 다양성은 실제 비즈니스에 큰 파급효과를 가져올 수 있으며, 앞으로도 반도체를 포함한 AI 기술이 다양한 분야의 발전에 지대한 영향을 미칠 것으로 예상된다.
온디바이스 AI 모델의 트렌드: 경량화와 하이브리드화
온디바이스 AI의 성공을 위해 가장 중요한 요소는 첫째, 성능이며, 둘째로는 AI 모델의 크기다. AI 모델의 크기가 작아질수록 연산 속도가 향상되고, 메모리 사용량이 줄어들며, 에너지 효율성도 높아지기 때문이다. 따라서 경량화는 온디바이스 AI 개발에 필수적인 요소라 할 수 있다. 그렇다면, 얼마나 경량화해야 할까?
AI 모델의 크기는 ‘모델 파라미터*’ 라는 단위로 구분된다. 이는 AI 모델이 보유한 지식을 저장하는 단위를 말하며, GPT-4, 클로드, 코파일럿 등의 모델은 보통 2,000억 개 이상의 파라미터를 가지고 있다. 그러나 AI 모델을 스마트폰에 탑재하려면, 모델 파라미터의 크기를 40억 개 이하로 줄여야 한다. 스마트폰에서 원활히 구동되려면 필요한 메모리의 크기가 4GB를 넘지 않아야 하기 때문이다. 현재 많은 개발사는 성능은 유지하면서도 사이즈를 줄이는 방법에 초점을 맞춰 개발을 진행하고 있다.
* 파라미터(Parameter): AI 모델이 데이터를 학습하면서 조정되는 변수로, 학습 과정에서 입력값이 결괏값으로 변환될 수 있도록 조정한다. 파라미터의 개수는 AI 모델의 성능을 좌우하며, GPT-3의 파라미터 개수는 1,750억 개로 알려졌다.
GPT-4, 클로드, 코파일럿 등과 같은 클라우드 기반 AI로부터 완전히 독립된 온디바이스 AI를 구현하는 방법은 아직 개발이 더 필요해 보인다. 현재로서는 온디바이스 AI가 하드웨어 제약을 극복하기 어렵고, 스마트폰에서 생성형 AI를 완전히 구동하는 것도 역부족이다. 예를 들어, ‘실시간 통역’ 기능조차도 실제 사용할 때 약간의 시간차가 발생한다. 이러한 문제를 해결하기 위해, 스마트폰 온디바이스 AI로 처리 불가능한 기능을 클라우드 AI에 맡기는 하이브리드 방식도 모색되고 있다. 대표적인 사례가 온디바이스 AI와 클라우드 AI의 결합을 목표로 하는 ‘애플 인텔리전스(Apple Intelligence)’다.
3. [노타] 갈수록 비대해지는 ‘AI 모델 경량화’ 기술 주목
링크 : http://www.businessreport.kr/news/articleView.html?idxno=43570
■ 노타는 어떤 회사
최근 AI를 개발하는 글로벌 빅테크 기업들은 이미 경량화 기술 개발에 집중하고 있다.
대표적인 스타트업은 노타(대표 채명수)다.
빅테크가 개발한 AI 모델로 제품·서비스를 운영하려는 기업들이 이들의 고객이다. 하드웨어 사양에 비해 고성능의 AI 모델을 사용하려 하거나 운영비 부담을 줄이려는 의료, 게임, 보안 등 다양한 분야의 기업들이 찾고 있다.
노타는 다양한 디바이스(기기)의 AI 모델을 경량화해줄 수 있다는 점을 강점으로 내세운다.
노타의 기술력은 글로벌 시장에서도 인정받고 있다.
글로벌 시장조사기관 CB인사이트는 지난해 LLMOps(초거대언어 AI 모델운영) 분야 선두기업 조사에서 노타를 ‘AI 최적화’ 부문 대표기업 4곳 중 1곳으로 선정했다.
‘AI 최적화’는 하드웨어 특성 및 사양을 고려해 AI 모델을 경량화하고 최적화함으로써 AI 모델이 효율적이면서도 고성능을 유지할 수 있도록 하는 기반 기술이다.
최근 LLM(초거대 언어 모델)의 등장으로 기업들의 AI 도입 및 운영 비용이 증가하고 있는 가운데 AI 경량화 및 최적화 기술은 이러한 비용 부담을 줄일 수 있어 전 세계적으로 큰 주목을 받고 있다.
■ 창업자 스토리
채 대표는 연구소에서 머신러닝 연구자로 경력을 시작해 머신러닝 관련 기술 조사 및 연구, 논문 작성, 특허 출원 등을 담당했다.
채 대표는 “노타는 2015년 카이스트에서 학생창업으로 시작한 스타트업으로 온디바이스 AI를 표방하는 AI 기술 기업”이라며 딥러닝 모델 경량화 및 압축 기술을 기반으로 고성능 딥러닝 모델을 서버나 클라우드가 아닌 저사양, 저전력의 엣지 디바이스에서 구동할 수 있다고 강조했다.
■ 기업 가치
2015년 네이버가 투자한 첫 번째 스타트업으로 2016년에는 네이버와 블루포인트파트너스를 통해 브릿지 투자유치를 했다.
2019년에는 스톤브릿지벤처스를 통해 pre-A라운드 투자를 유치했다.
또한 스톤브릿지벤처스, 엘비인베스트먼트, 삼성벤처투자(삼성SDS펀드), LGCNS를 통해 Series A 투자 유치에 성공했다.
투자업계의 관심은 뜨겁다. 특히 CVC들의 관심이 높다. 노타는 네이버D2SF, 카카오인베스트먼트, 삼성벤처투자, LG CNS 등에서 누적 272억원(시리즈B)의 투자를 유치했다.
무엇보다 노타의 AI 원천 기술은 EU와 북미 등에서도 관심도가 높은 기술이므로 추후 해외시장에서도 사업적 성과를 만들어갈 예정이다.
■ 성공 요인
노타는 창업 이래 AI 모델 경량화·최적화 기술 개발 및 연구 경험과 노하우를 축적했다.
해당 기술을 ‘넷츠프레소’라는 제품으로 구현해 국내외 기업들을 파트너로 확보하는 등 기술적 성과를 사업적 성과로 이어가고 있다.
최근에는 이미지를 생성하는 초거대 AI 모델 스테이블 디퓨전(Stable Diffusion)을 경량화해 해당 데모가 세계 최고 권위의 컴퓨터 비전 학회 ICCV 2023(International Conference on Computer Vision 2023)의 데모 트랙에 채택됐다.
최근 LLM 영역에 대한 기업들의 관심이 증가함에 따라 디바이스 환경에 맞게 최적화된 AI 모델의 필요성도 더욱 높아졌다.
노타 관계자는 “엔비디아(NVIDIA), 암(Arm) 등의 글로벌 AI 반도체 기업들과의 긴밀한 파트너십을 기반으로 세계 시장에서 AI 보급에 기여하는 기업으로 더욱 성장해 나갈 것”이라고 전했다.
■ 신규 사업 등 미래 전략
노타의 목표는 ‘다양한 산업에 AI가 적용되는 길을 열자’는 것이다. 그 과정에서 발생하는 다양한 제약을 노타의 핵심기술인 딥러닝 모델 경량화 기술로 해소하는 중이며 조금씩 그 목표를 향해 정진하고 있다.
그러므로 ‘AI가 적용되기 어려웠던 다양한 분야 및 상황에서의 AI 적용이 가능하도록 하는 것’이 노타가 바라보는 미래비전이다.
마무리
여기까지 오늘의 기사 스크랩이었습니다. 계속된 하이닉스에 상승세 뉴스를 접하게 되면서, 이번 스크랩에서는 SK 하이닉스가 AI 시대에 주역으로 떠오르는 이유에 대해서 살펴보았습니다. 이 과정에서 HBM 기술에 대해서 살펴보고 반도체 기술이 AI 산업에 어떤 영향을 미칠까를 생각하면서 온디바이스 AI의 정의 온디바이스 AI 모델의 트렌트인 경량화와 하이브리드화에 알아보았습니다. 그리고 이 중에서 경량화에 대한 국내 유일 기업인 '노타 AI'에 대해서 알아보면서 이번 기사 스크랩을 마치도록 하겠습니다.
'Scrapbook > News Scrap' 카테고리의 다른 글
[기사 스크랩] SKT-삼성전자, AI로 5G 기지국 품질 최적화 나선다 (0) | 2024.11.23 |
---|---|
[기사 스크랩] SKB, ‘AI로 만든 읽어주는 동화’ 선보여 (0) | 2024.11.22 |
[기사 스크랩] 자체 개발 거대언어모델로 ‘AI 고객센터’ 여는 SKT (0) | 2024.11.20 |
[기사 스크랩] 베조스부터 저커버그까지…로봇에 투자한 억만장자들 (0) | 2024.11.19 |
[기사 스크랩] 신한은행, 미래형 영업점 ‘AI 브랜치’ 개설…금융권 최초 자체 대형언어모델 개발 (0) | 2024.11.18 |