|
그는 “1단계에선 지식에 기반해 집어 넣는 방식으로 AI를 만들었으면 지금은 데이터를 주고 기계가 AI를 발견하게 된다”며 “하지만 앞으로는 생명체가 환경 속에서 생존하는것처럼 AI 역시 실생활에서 리얼타임 학습하는 머신러닝 알고리즘(인지적(Cognitive)기계)으로 연구해야 한다”고 조언했다.
그러면서 10년간 진행 중인 프로젝트들을 소개했다.
지난해와 올해 국제대회 우승..AI가 사진보고 자연어로 문장 만든다
그의 이런 노력은 ‘2017 국제 로보컵 대회’ 우승과 ‘2018 북미 컴퓨터 언어학학회’ 시각적 스토리텔링 인공지능챌린지 우승으로 이어졌다.
작년에는 서울대 컴퓨터공학부 장병탁 교수팀이 만든 로봇 AUPAIR가 가정과 같은 일상 환경에서 서비스 임무를 수행하는 소셜 홈로봇 부문(RoboCup@Home SSPL 리그)의 8개 시나리오 과제를 모두 최고의 점수로 통과해 종합 1위를 차지했다.
지난 6월에는 장 교수와 제자들이 함께 참여한 ‘SnuBiVtt’팀이 ‘시각적 스토리텔링 인공지능 챌린지’에서 우승했다. 이 기술은 과학기술정보통신부의 인공지능 국가전략과제인 비디오튜링테스트(VTT) 프로젝트의 결과물이기도 하다.
뽀로로 비디오로 학습시켜..페이스북과 막상막하
이어 “인공지능 전반은 가상세계에서 현실세계로 다가가고 있다.머신러닝 관점에서 이런 챌린지들을 연구해야한다”며 “이를테면 (음성인식으로 동작하는) AI스피커가 눈을 갖추고 가시성을 갖게 되면 프라이버시 문제가 해결될 것이다. 대화의 맥락을 목소리만으로 이해하긴 어렵다. 시각이나 촉각같은 다른 감각을 통한 도움이 필요하다”고 말했다.