ACROFAN

엔비디아 AI 컨퍼런스 2018 기자간담회

기사입력 : 2018년 11월 08일 23시 56분
ACROFAN=권용만 | yongman.kwon@acrofan.com SNS
엔비디아(NVIDIA)는 11월 6일 서울 잠실 롯데 시그니엘 호텔에서 ‘엔비디어 AI 컨퍼런스 2018’의기자간담회를 열고, 인공지능과 딥 러닝 분야에서 엔비디아의 성과와 최신 기술들을 소개하는 자리를 가졌다. 올해의 ‘엔비디아 AI 컨퍼런스 2018’은 3,000여 명이 참여해 역대 최대 규모로 진행되었으며, 최근 AI 및 딥 러닝 기술 현황과 다양한 산업군의 적용사례들이 소개되었다.

11월 7일 서울 강남구 코엑스 컨벤션센터에서 진행된 ‘엔비디아 AI 컨퍼런스 2018’은 3,000여 명이 참석해 역대 최대 규모로 진행되었으며, 엔비디아를 비롯한 업계 선도 기업의 전문가들이 AI 및 딥 러닝 기술 현황과 다양한 산업군의 적용 사례를 소개하는 시간을 가졌다. 이 행사에서는 기조연설 뿐 아니라 국내외 주요 AI 관련 기업, 학계 전문가들이 발표자로 참여해 딥 러닝, 자율주행, 오토노머스 머신, 고성능 컴퓨팅(HPC) & 슈퍼컴퓨팅, 데이터센터 & 클라우드 등 6개의 주제 하에 최신 기술 트렌드와 산업별 혁신사례를 소개하는 약 40여개의 심도있는 세션이 진행됐다.

기조연설자로 나선 마크 해밀턴(Marc Hamilton) 엔비디아 솔루션 아키텍처 및 엔지니어링 부문 부사장은 컴퓨팅 기술의 미래를 조망하며, 엔비디아가 이에 어떻게 대비를 하고 있는지를 소개했다. 엔비디아는 이제 GPU를 기반으로 하는 엔드투엔드 솔루션 포트폴리오를 갖추고 있으며 2018년에는 실시간 레이트레이싱과 AI 가속을 지원하는 새로운 튜링(Turing) GPU 아키텍처와 이를 기반으로 하는 GPU 제품들과 함께, 빅데이터 분석 및 머신러닝 용 ‘래피즈(RAPIDS) GPU 가속 플랫폼’을 선보이기도 했다고 소개했다.

 
▲ 마크 해밀턴 엔비디아 솔루션 아키텍처 및 엔지니어링 부문 부사장

엔비디아는 DNN(Deep Neural Network) 기술이 사실 오래 전부터 있던 기술이지만, 이것이 현실적으로 활용 가능해진 것은 이 DNN을 GPU 기반에서 처리할 수 있게 된 2012년 이후라고 소개했으며, 소프트웨어가 데이터 기반에서 DNN을 통해 소프트웨어를 작성할 수 있는 시대가 도래했다고 밝혔다. 그리고 이 DNN은 다양한 유형의 빅 데이터를 처리하는 데에 탁월한 능력을 발휘하며, 오늘날 딥 러닝을 사용하는 산업군은 방대한 데이터를 보유한 산업군이며, 실질적으로 거의 모든 산업군이라고 덧붙였다.

그리고 최근의 움직임인 자체 AI 가속기의 활용 확대에 대해서는, 많은 기업들이 자체 AI 가속기의 제작에 나서고 있지만, AI 칩은 엔비디아에 있어서는 아주 일부분에 지나지 않으며, 소프트웨어 부분이 중요하다는 점을 강조했다. 많이 사용되는 텐서플로우의 경우, 엔비디아는 수 백 명의 엔지니어와 함께 텐서플로우 처리를 GPU에 최적화하고 있는데, AI 칩을 소개에 그치는 것이 아니라 실제로 활용할 수 있게 하기 위해서는 프레임워크 최적화를 위한 엔지니어들이 반드시 필요해진다는 것이다.

또한 칩은 서버와 함께 있어야 하며, 여러 서버 제조사들과 탑재를 위한 협력도 필요하고, 서비스 형태로의 제공을 위한 클라우드 서비스 업체들과의 협력도 필요하다고 덧붙였다. 이와 함께 엔비디아는 AI 칩과 관련해 매년 20억 달러 이상의 R&D 투자를 칩 뿐만 아니라 소프트웨어 측면에도 투자하고 있다고 소개했다.

최근 활용이 늘어나고 있는 FPGA와의 비교에서는, ASIC의 경우 딥러닝의 활용에는 빠르게 바뀌는 알고리즘에 대응하기 어려운 점 등이 단점으로 꼽히며, 이런 측면에서 엔비디아의 GPU는 새롭게 등장하는 대부분의 네트워크들이 CUDA를 지원한다는 점을 소개했다. 또한 FPGA의 프로그래밍을 위해서는 높은 전문성을 가진 엔지니어가 필요하며, GPU보다 프로그래밍 유연성이 떨어지고 ASIC보다 효율성이 떨어진다고 지적했다. 이에 FPGA는 특정 소규모 애플리케이션 등에 적합한 특성을 가지며, 엔비디아는 AI가 모든 산업, 데이터센터에서 활용될 것으로 보고 GPU 아키텍처의 발전과 고도화에 집중할 것이라 덧붙였다.

추론 쪽에서 GPU의 활용에 대한 전력 소비나 발열 등의 효율성 측면에 대해서는, 훈련 측면에서는 가장 강력한 성능의 GPU를 사용하는데, 추론 쪽은 좀 더 간단한 구조고, AI가 어느 곳에든 사용되려면 어느 서버에나 추론 성능이 있어야 할 것이다. 모든 서버에 엔비디아의 고성능 GPU가 들어가기에는 전력 소비와 발열 등에서 쉽지 않다. 이에, 지난 9월 ‘테슬라 T4 추론 가속기’를 소개한 바 있으며, 75W 정도의 전력 소비량과 함께 INT8, INT4까지도 사용 가능한 새로운 ‘혼합 정밀도 모드(Mixed Precision Mode)’가 적용되었다고 소개했다. 그리고 새로운 텐서RT 서버 소프트웨어를 사용해, GPU에 복수의 추론 모델을 함께 구동할 수도 있다고 밝혔다.

한편 엔비디아의 R&D는 이제 어떤 형태로든 AI와 연결되고 있다고 소개되었다. 예를 들면 튜링GPU에서 사용할 수 있는 DLSS(Deep Learning Super Sampling) 기술이나, HPC에서도 기존 고객들이 연산 과학에 AI를 접목시켜 더 정확한 결과를 빠르게 얻고자 시도하고 있다는 것이다. 또한 엔비디아는 다양한 산업의 기업들이 딥러닝을 배울 수 있도록 DLI(Deep Learning Institute)를 운영하고 있으며, 지금까지 12만 명의 데이터 사이언티스트를 배출했다고 소개했다. 국내에서도 SK하이닉스가 AI 기술을 사용해 제품 검수를 진행, 수율을 높이고 비용을 절감하고 있다고 밝혔다.

하지만 AI의 핵심은 소프트웨어가 다른 소프트웨어를 작성한다는 것이며, 소프트웨어의 빠른 작성을 위해 수백 명의 프로그래머 대신 뛰어난 성능의 GPU 플랫폼이 필요해지게 된다. 이 때 대기업의 경우 DGX2 도입 등의 대규모 투자가 가능하지만, 중견기업 등에서는 이것이 부담스러운 경우도 많다. 이에 다른 아시아태평양 지역의 사례에서는 정부 차원에서 기업들을 지원하기 위한 HPC 센터와 대규모 AI 슈퍼컴퓨터 구축에 투자하는 모습도 있는데, 일본이나 대만의 경우가 대표적 사례로 꼽혔다. 반면, 한국의 경우 정부 차원의 AI 슈퍼컴퓨터 관련 투자가 이루어지지 않고 있는 상황으로 알고 있는데, 한국 정부의 의사가 있다면 협력하고자 한다고 덧붙였다.

한편 엔비디아는 한국에서 R&D 이외에도 클라우드 등의 비중이 크게 높아지고 있으며, DLI에서는 핸즈온 행사를 진행하고 있고, 대학에서도 딥러닝 앰배서더 프로그램, 파트너 한컴MDS를 통해 고객들에 매달 교육을 진행하고 있다고 밝혔다. 또한 한국에서는 4차 산업혁신위원회 안의 헬스케어, 스마트시티 영역과 함께 움직이고 있으며, 규모는 틀리지만 다른 나라와 비슷한 형태로 움직이고 있다고 덧붙였다. 한편 최근 가동을 시작한 KISTI의 슈퍼컴퓨터 5호기 ‘누리온’에 대해서는, 기본 구성 이외에도 추가 예산을 통해 엔비디아의 GPU 컴퓨팅 환경을 구성하기도 했다고 밝혔다.

Copyright ⓒ Acrofan All Right Reserved.

디지털 마케팅의 새로운 장을 만들다! 신개념 퍼포먼스마케팅 플랫폼 '텐핑'

[명칭] 아크로팬   [제호] 아크로팬(ACROFAN)    [발행인] 유재용    [편집인] 유재용    [청소년보호책임자] 유재용
Copyright © ACROFAN All Right Reserved