[태그:] AI와_번역

  • (특별연재) 인공지능, 머신러닝, 딥러닝 어떻게 다른 건가요? _ 2

    (특별연재) 인공지능, 머신러닝, 딥러닝 어떻게 다른 건가요? _ 2

     

    Deep Learning에 대한 이해

    최근에 AI 또는 Machine Learning (기계 학습)을 얘기하는 곳은 대부분 Deep Learning에 기반을 두고 있다고 보면 된다.  Deep Learning은 과거 정체되었던 기술적인 난제들을 비약적으로 발전시키거나 해결해 나가고 있다.

    예를 들어, 자동번역기는 이미 쌍방 언어를 구조적으로 분석해서 맞춰 보려고 했던 Rule-based 방식으로부터 시작했으나 언어의 다양성을 결국 풀지 못했고, 이후 기존에 사람이 번역한 데이터를 잔뜩 쌓아서 통계적으로 접근했던 것이 나름의 성과를 얻었지만 한계가 있었는데, 2016년 하반기에 Google이 Deep Learning 방식으로 개발한 Neural MT (신경망 자동번역기)는 불과 2년의 연구결과로 지난 수십년간 도달하지 못한 혁신적인 결과물을 보여주고 있다.

    알파고는 더 이상 얘기할 필요 없겠고…

    Deep Learning은 어떤 기술인지에 대해 기본적인 이해를 돕고자 한다. 아무리 쉽게 설명하려 해도 기술적인 용어들이 많아서 쉽진 않네요.

     

    differences_of_ai_machine_learning_deep_learning_2 1

     

    위에 보이는 그림은 대학 입시에서 내신(Grade)와 수능(Test) 성적의 분포에서 실제 합격된 학생은 녹색이고 붉은색은 불합격인 경우, 이를 구분할 수 있는 두 선을 표현한 것입니다. 이 두선을 그어놓으면 학생의 내신이 얼마이고 수능이 얼마인지를 대입하면 합격인지 불합격일지 예측이 가능하겠죠.

    가장 간단한 원리로 말하자면 바로 이 선을 찾는 것이 Machine Learning이라고 보면 됩니다.

    사람은 위 도표를 보고 적당한 위치에 선을 그을 수 있겠지만 컴퓨터는 어떻게 찾을까요?

    좀더 간단한 예를 보겠습니다. 아래 차트에 분포된 붉은 점을 가장 잘 표현한 선을 긋는다면 파란색 선이 되겠지요. 즉, 이 선은 수학적으로 y=mx+b 입니다. Linear Regression(선형 회귀)이라는 이 공식은 그런대로 익숙하죠…

    differences_of_ai_machine_learning_deep_learning_2 2

    이 선을 긋기 위해서 찾아야 할 값은 m과 b인거죠.  m은 선의 기울기이고 b는 Y 좌표의 시작 위치가 될 것입니다. 이 값을 찾기 위해서 어떤 과정을 거치는지 간략히 보겠습니다.

    1. 일단, 아무렇게나 선을 긋습니다.
    2. 그런 다음, 이 선과 각 점들이 얼마나 떨어져 있는지 값을 구합니다.
    3. 그리고, 좀더 이 점들과 가까워질 수 있는 값을 적용하고
    4. 다시 선을 긋고
    5. 각 점들과 오차를 다시 계산하고
    6. 새로운 값을 적용하고… 다시 긋고.. 오차를 계산하고…

    differences_of_ai_machine_learning_deep_learning_2 3differences_of_ai_machine_learning_deep_learning_2 4differences_of_ai_machine_learning_deep_learning_2 5

     

     

     

     

     

     

     

     

     

     

    이 과정을 반복해서 오차값이 가장 작은 지점에 올 때까지 반복하는 거죠.

    여기서 몇 가지 수학적인 설명을 안 할 수가 없네요.
    우선, 오차값을 찾아야 할텐데요. 오차값은 일반적으로 이렇게 구합니다.

    differences_of_ai_machine_learning_deep_learning_2 6

    모든 점들과 현재 그어진 선의 거리를 제곱해서 전체 점의 개수를 나누어 평균 오차값을 구하는 공식입니다.

    그런 다음, 오차를 줄일 수 있는 값으로 조정한다고 했는데, 이를 위해 오차값을 미분하여 Gradient (기울기)를 구합니다.  Gradient를 구하는 수식은 이렇습니다.

    differences_of_ai_machine_learning_deep_learning_2 7

    Gradient는 어느 방향으로 현재 선을 조정할 것인지를 찾아 주는 것이라고 생각하면 됩니다. 오차값이 줄어드는 방향을 찾아주는 알고리즘을 Gradient Descent라고 부르며, Machine Learning / Deep Learning 알고리즘의 가장 핵심이라고 보면 됩니다.

    가장 기초적인 Linear Regression을 통해서 Machine Learning이 어떻게 답을 찾아가는지 보았습니다. X, Y와 같이 간단한 2차원의 데이터가 있으면 이 데이터를 가지고 합격과 불합격을 구분하기 위한 구분선을 찾거나(Classification), X가 주어졌을 때 Y 값이 무엇일지 제시하는(Linear) 모델을 만들 수가 있겠지요.

    문제는, 세상의 문제들은 단순히 2차원적인 데이터로만 풀 수 없습니다. 예를 들어, 사진이나 이미지를 인식하는 프로그램에서 이미지 크기가 24x24x3 픽셀이라면 1,728개의 Feature(속성/특징)가 있는 것이죠. 언어를 포함한 분야에서는 이러한 Feature가 수백만개에 달하기도 합니다.

     

    더 이상 수학적인 얘기는 빼고… 개념만 좀더 설명드리자면…

    이러한 수많은 Features를 Neural Network에 연결하고, 최종 결과값을 찾아가는 과정을 표현한 그림은 이렇습니다.

    differences_of_ai_machine_learning_deep_learning_2 8

     

    그런데, 이건 가장 기본이 되는 Neural Network이고요 Neural Network 모델도 ConvNet(CNN), RNN 등으로 더욱 복잡해집니다.

     

    ConvNet (CNN)

    differences_of_ai_machine_learning_deep_learning_2 9

     

    RNN

    differences_of_ai_machine_learning_deep_learning_2 10

     

    각각의 Neural Network 모델은 적용 분야가 다른데, ConvNet은 이미지 인식에 많이 사용되며, RNN은 언어 처리에 많이 사용됩니다.  특히, RNN은 시간 스텝을 갖는 시퀀스 데이터를 이용해서 이전 문맥을 포함한(‘기억’) 결과를 도출할 수 있기 때문에 금융 분야에서도 이 모델을 주로 사용합니다.

     

     

    Deep Learning은 모든 문제의 해결책인가?

    Deep Learning은 많은 문제를 해결해 줄 수 있을 것입니다.  중요한 것은 Deep Learning 기술 자체가 아니라 ‘데이터’입니다. 즉, Deep Learning 기술을 갖고 있다는 것이 문제의 해답을 갖고 있다고 잘못 이해하면 안됩니다.

    Deep Learning은 ‘기술’입니다. 이걸로 무엇을 할 것인가가 중요하겠지요.  동일한 Deep Learning 기술로 네이버 파파고와 Google 자동번역기가 만들어졌으나, 둘의 성능은 차이가 있습니다. Google이 월등히 앞섭니다. 그 이유는 기술이 차이라기 보다는 ‘데이터’의 차이입니다.

    즉, 양질의 데이터를 얼마나 ‘많이’ 갖고 학습하였는지에 따라 결과물이 달라지는 겁니다.

    우선 데이터의 퀄리티가 좋아야하고, 여러가지 변형을 모두 학습시킬 수 있는 충분한 양의 데이터가 필요합니다. ‘충분한’ 양이 얼마인지는 각각의 모델에 따라 다르겠지만 일단 엄청 많아야 한다는 것만 이해하십시오.

    -다음 특별편 이어서-

     

     

     

     

     

     

    ※오늘의 한 줄 EVENT※

    어떤 문장이든 댓글로 남겨주세요. 무료로 영어 / 일어 1줄 번역을 바로바로 해 드립니다!
    여러분들의 창의력 퐁퐁 댓글 기다릴게요~

     

     

     

    Click here > WiseTranslate.net ▼

     

    WiseTranslate

     

     

  • (특별연재) 인공지능, 머신러닝, 딥러닝 어떻게 다른 건가요? _ 1

    (특별연재) 인공지능, 머신러닝, 딥러닝 어떻게 다른 건가요? _ 1

     

    AI의 역사

    Dartmouth Conference (1956)에서 “학습의 모든 과정 또는 지능의 특징을 정확하게 파악하여 기계가 이를 시뮬레이션할 수 있다”라는 선언을 필두로 1950년대부터 시작된 AI 연구는 70년대까지 많은 관심과 지원 속에 어마어마한 투자가 이뤄졌으나 70년대 중반부터 AI에 대한 회의론이 대두되고 지나친 기대감 대비 미미한 발전 속도로 정부 및 투자 기관으로부터 펀딩이 중단되기에 이른다.  이 시기에 AI가 안고 있던 문제 중 하나는 컴퓨팅 파워 부족이고 다른 하나는 제한된 데이터였다.

    Ross Quillian의 자연어 처리에 대한 최초의 성공 사례는 겨우 20 단어만 가지고 데모를 했는데 당시 메모리 용량이 이것 밖엔 안되었던 거죠. 유명한 AI 과학자 중 한명인 Hans Moravec은 76년도에 컴퓨터 파워에 대한 문제를 인식했지만 당시 그는 인간과 같은 속도로 동작을 인식하고 사물을 구분하기 위해서는 초당 109의 연산속도(1,000 MIPS)가 필요할 것이라고 예측했는데, 최근 사용되고 있는 실시간 영상/이미지 판독 프로그램에서는 최소 10,000 MIPS 이상 연산 속도가 필요합니다. 70년 중반 당시 가장 빠른 슈퍼컴인 Cray-1은 고작 80~130 MIPS였으니 Moravec이 얘기한 1,000 MIPS도 당시에는 꿈 같은 얘기였겠지요.  참고로, 최신 CPU Intel Core i7 6950X는 317,900 MIPS.

    가라앉았던 AI 연구가 80년대 들어서 일본 정부가 거대한 자금을 투입하여 5세대 컴퓨터 프로젝트를 시작하면서 AI 연구가 다시 활황을 보이는 듯 했으나 역시 지나친 기대감과 하드웨어적 이슈로 10년 만에 막을 내림.

    93년부터 AI는 ‘조용한’ 발전을 거듭합니다. 컴퓨팅 속도가 빨라짐에 따른 성공도 있고, 적용 분야를 세분화하여 전문화된 영역으로 접근함에 따른 성공도 있었음. 97년에 IBM의 Deep Blue가 체스 챔피언을 이겼고, 2005년 Stanford 로봇의 131마일 사막 자율주행, 2007년 CMU의 55마일 시내 자율주행, 2011년 IBM Watson의 Jeopardy 퀴즈쇼 우승 등으로 비약적인 발전을 거듭했다. 2년마다 컴퓨터의 속도와 메모리 용량이 두 배로 증가한다는 무어의 법칙으로 보듯이 Deep Blue는 체스를 처음 학습시켰던 1951년 Mark 1에 비해 무려 1천만배나 속도가 빨라진 것이다.

    AI 알고리즘으로 다양한 문제를 해결할 수 있다는 점에 착안하여 AI는 점차 다양한 영역으로 패러다임을 바꿔서 적용되기 시작한다.  데이터 마이닝, 산업용 로봇, 음성 인식, 질병 진단, 검색 엔진 등에서 AI 기술이 널리 사용되고 있으나, AI라는 이름으로 불리진 못하고 있으며 그렇게 불려지고 싶어하지 않는다. AI는 ‘General Purpose’ 즉 특정 분야가 아닌 사람과 같이 모든 상황에 대응할 수 있는 인공지능을 의미하지만 여전히 요원해 보이며, 최근 AI 연구는 세분화된 영역에서 각자 발전되고 있는 상황이다.

    21세기 들어서면서 빅데이터에 손쉽게 접근할 수 있고, 비약적인 컴퓨팅 파워의 발전과 진화된 Machine Learning 기법으로 다양한 산업 분야에 적용되고 있으며, AI의 본질적인 목표에 빠르게 접근해 가고 있다.

     

     

    AI, Machine Learning, Deep Learning의 차이?

    differences_of_ai_machine_learning_deep_learning_1 1

    AI가 가장 폭넓은 개념이라고 보면 되고, 그 안에 Machine Learning이 주요 기법으로 적용된다. Machine Learning 방식에도 다양한 모델이 개발되어 있는데 크게 Supervised와 Unsupervised 방식이 있다. Machine Learning은 Decision Tree, Clustering, SVM, K Nearest, Linear Regression 등 다양한 기법을 사용하고 수많은 데이터를 ‘학습’시킨 후 새로운 문제에 대한 답을 찾을 수 있는 모델을 개발하는 것이다.

    Deep Learning은 Machine Learning의 한 기법이며 최근 가장 주목 받는 기술로 Machine Learning의 방향은 모두 Deep Learning 방식으로 모여지고 있다.  Deep Learning은 인간의 뇌가 수많은 뉴런으로 연결되어 있는 것과 같이 수많은 논리적인 노드(뉴런)를 여러 층의 레이어로 쌓아서 학습 과정을 통해 각 뉴런이 특정 정보를 저장하게 된다.

    Deep Learning과 기존 Machine Learning 기술의 차이는 아래 그래프에 보는 것과 같이 데이터 양이 많으면 많을수록 더욱 정교한 결과를 만들어 냅니다.

     

    differences_of_ai_machine_learning_deep_learning_1 2

    Deep Learning 기술은 불과 몇 년 밖에 되지 않았으나 이미 알파고와 같은 여러 적용 사례를 통해서 Machine Learning의 어마어마한 잠재력을 보여주고 있다. 알파고, Google과 네이버의 자동번역기 등이 Deep Learning 방식으로 개발된 것이다.

    Deep Learning의 출현으로 앞으로 AI의 미래가 다시 밝아지고 있다.

    -이어서-

     

     

     

     

     

     

    ※오늘의 한 줄 EVENT※

    어떤 문장이든 댓글로 남겨주세요. 무료로 영어 / 일어 1줄 번역을 바로바로 해 드립니다!
    여러분들의 창의력 퐁퐁 댓글 기다릴게요~

     

     

     

    Click here > WiseTranslate.net ▼

     

    WiseTranslate