인간 작업 ‘보고 배우는’ AI 등장…”제조로봇 효율 개선”
수정 2015-10-05 16:35
입력 2015-10-05 14:30
가까운 미래에는 프로그래머들이 아닌 각 분야 전문가들이 로봇에게 자신의 기술을 직접 가르칠 수 있게 될까? 인간의 작업수행 과정을 ‘보고 배우는’ 능력을 지닌 인공지능이 공개돼 화제를 모으고 있다.
미국 매사추세츠 주 공대(MIT)는 2일(현지시간) 자체 온라인 매거진을 통해 메릴랜드 대학교 자동화·로봇공학·인지공학 연구소가 새로 개발한 기계학습 알고리즘을 소개했다. 기계학습이란 인공지능이 새로운 정보를 학습, 활용할 수 있도록 하는 기술을 뜻한다.
개발을 이끈 연구소 소속 대학원생 예조 양은 “각 분야(요리 등)의 전문가가 인공지능 로봇 앞에서 작업을 직접 시연하면 인공지능은 해당 알고리즘을 통해 그 진행 순서의 대부분을 혼자서 학습할 수 있다”며 “그 다음엔 해당 작업에 맞게 작동 방식을 스스로 재조정하게 된다”고 말했다.
원래 공장 생산라인 등에서 활용되는 로봇에게 새로운 작업절차를 입력시키기 위해서는 여러 주에 걸쳐 로봇을 재프로그래밍, 재설정하는 과정이 필요하다. 하지만 이번에 개발된 학습 알고리즘을 이용하면 여기에 소요되는 시간을 대폭 줄일 수 있다는 것이 연구팀의 설명이다.
연구팀은 최근 미국 세인트루이스 시에서 열린 학술 컨퍼런스에서 로봇으로 하여금 인간 바텐더의 칵테일 제조 과정을 보고 배운 뒤 직접 동일한 칵테일을 만들어내도록 하는 시연을 보인 바 있다.
이 시연에는 ‘리싱크 로보틱스’(Rethink Robotics)에서 만든 두 개의 팔을 가진 ‘백스터’ 모델 로봇이 활용됐다. 로봇은 각각의 재료가 사용된 순서와 양을 정확히 학습해 칵테일을 만들어 냈다.
연구팀은 인간 전문가의 직접적인 시범뿐만 아니라 인터넷에서 쉽게 접할 수 있는 많은 동영상을 통해 인공지능에게 새로운 작업을 학습시키는 연구도 진행했다. 연구팀은 호주 연구시설 NICTA와 협력해 진행한 이 연구 내용을 담은 논문을 최근 발표했다.
논문에 따르면 연구팀은 인터넷 동영상 공유사이트 유튜브에 올라와 있는 여러가지 요리 동영상을 통해 인공지능을 학습시켰다.
여기에는 크게 두 개의 인식 시스템이 동원됐다. 그 중 하나는 영상에 나타난 서로 다른 여러 사물들을 인식하는 시스템이고 다른 하나는 영상 속 인물이 물건을 쥐는 다양한 방식을 분석하는 시스템이다.
이 두 가지 시스템을 바탕으로 수천편의 동영상을 시청하면 인공지능은 수많은 사물을 다룰 수 있게 된다는 것. 연구팀에 따르면 수천편의 동영상을 보여주는 것은 시간낭비처럼 보일지 모르지만 다양한 종류의 사물을 모두 취급할 수 있는 완전한 시스템을 한 번에 개발하는 일보다 훨씬 효율적이다.
또한 이러한 인공지능은 기존 시스템들과는 달리 과거 접해본 적 없는 사물이 주어졌을 때도 적절하게 해당 사물을 다룰 수 있다는 장점이 있다.
이번 인공지능 소프트웨어 개발에는 기계학습 분야에서 널리 쓰이고 있는 CNN(convolutional neural networks, 나선형 신경망) 알고리즘이 활용됐다. 나선형 신경망 알고리즘은 방대한 데이터 속에서 일정한 패턴을 파악해 낼 수 있도록 해주는 ‘인공 신경망’(artificial neural network)의 일종이다.
현재 연구팀은 여러 전자기기·자동차 생산기업들과 접촉 중이라고 밝혔다. 이들은 모두 생산 로봇의 재 프로그래밍 속도를 향상시키는데 큰 관심을 가진 기업들이다.
예조 양은 “대부분의 기업에서는 6주 혹은 그 이상의 기간을 소모해가며 로봇 재프로그래밍 작업을 수행하고 있다”며 “이번 연구는 이 기간을 최대 절반으로까지 줄여보자는 의도에서 기획됐다”고 전했다.
방승언 기자 earny@seoul.co.kr
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지
