[구글I/O 2019] "누구나 누리는 AI" 실현 나선 구글

AI·접근성·보안성 강화 기술 선보여
'온디바이스 전환' AI, 속도·개인화↑
"모두가 기술 혜택 누려야"…접근성↑
  • 등록 2019-05-12 오후 4:24:50

    수정 2019-06-10 오전 6:16:21

[마운틴뷰(미국)=이데일리 한광범 기자] “구글을 모두에게 도움을 주는 회사로 만들기 위해 노력하고 있다.”

선다 피차이 구글 최고경영자(CEO)가 지난 7일(이하 현지시간) 미국 캘리포니아주 마운틴뷰 쇼라인 앰피시어터에서 열린 구글 I/O 기조연설을 통해 밝힌 구글이 가치였다.

‘전 세계의 정보를 체계화해 모두가 접근할 수 있도록 유용하게 만들 것’이라는 구글의 오랜 가치를 재확인하는 수준의 발언이었지만 올해 구글 I/O에서 대폭 진화된 인공지능(AI) 기술 진화·접근성 강화 결과물을 내놓으며 진화하는 구글의 가치를 증명해 보였다.

선다 피차이 구글 CEO가 지난 7일(현지시간) 미국 마운틴뷰 쇼라인 앰피시어터에서 열린 구글 I/O에서 기조연설을 하고 있다. (사진=AFP)
구글의 인공지능(AI) 비서 플랫폼 ‘구글 어시스턴트’는 한 단계 진화했다. 클라우드 기반에서 온디바이스 형태로 변경되며 속도는 더 빨라지고 개인화는 한층 강화됐다.

차세대 구글 어시스턴트는 그동안 클라우드를 통해 연결되던 AI를 디바이스 내부로 옮긴 것이 핵심이다. 피차이 CEO는 “딥러닝의 발전을 통해 100GB 음성·언어 이해 모델을 0.5GB로 줄일 수 있었다”고 밝혔다.

차세대 구글 어시스턴트 공개…“속도 10배 빨라져”

구글 어시스턴트가 디바이스에서 직접 작동함에 따라 지연이 거의 없이 바로 음성을 처리가 가능하다. 아울러 오프라인에서도 이용이 가능해졌다. 사용자 명령을 실시간으로 이해하고 처리하며 약 10배 더 빠른 속도로 반응한다는 것이 구글의 설명이다.

스콧 허프만 구글 어시스턴트 엔지니어링 부사장은 “구글 어시스턴트는 사용자를 돕는 가장 빠르고 개인화된 방법이 되기 위해 노력하고 있다”고 밝혔다.

지난해 구글 어시스턴트가 전화로 식당 예약하는 모습을 보여 화제를 모았던 ‘듀플렉스’ 기술을 기존의 안드로이드와 iOS에서 웹으로까지 확대 적용했다. 가령 “‘엄마 집’ 가는 길 알려줘”라고 요청하면 구글 어시스턴트가 사용자 의도를 파악해 답변을 준다. ‘엄마 집’의 경우 ‘사용자 어머니의 집’과 상점명이 있다고 하면 구글 어시스턴트는 사용자의 이용 행태를 분석하는 ‘개인참조정보(Personal References)’ 기능을 이용해 사용자의 의도를 파악하게 된다.

구글은 ‘차세대 구글 어시스턴트’를 탑재한 새로운 스마트홈 기기 ‘네스트 허브 맥스’ 출시 계획을 밝혔다.

기존 AI 스피커에서 진화한 ‘네스트 허브 맥스’는 외부 카메라 화면을 직접 보거나 통화도 가능해 보안 용도로 사용이 가능하다.

여러 명이 함께 사용할 경우 사용자 얼굴을 인식해 개별 맞춤형 정보를 제공하는 ‘페이스 매치’ 기능이 핵심이다. 릭 오스텔로 하드웨어 선임부사장은 “특정 사용자가 카메라 앞으로 나타나면 해당 사용자의 캘린더, 날씨 등 개인화된 정보를 제공한다”고 설명했다.

지난 7일(현지시간) 미국 마운틴뷰 쇼라인 앰피시어터에서 열린 구글 I/O에 참석한 한국인 개발자들. (사진=구글)
구글은 이 같은 기술의 발전에 그치지 않고 더 많은 사람들이 기술의 혜택을 누릴 수 있도록 ‘접근성 강화’에도 진전을 보였다.

피차이 CEO는 “구글을 더 유용하게 만드는 것보다 더 중요한 것은 모든 이용자에게 이 같인 기술을 유용하게 만드는 것”이라며 “스탠퍼드대 학생, 인도의 시골 이용자를 포함해 모든 사람들이 사용할 수 있도록 해야 한다”고 강조했다.

접근성은 구글의 핵심 가치 중 하나다. 임직원들에게 접근성에 대한 지속적 교육·인지하는 다양한 프로그램을 운영 중인 구글은 시각·청각·구음 등 장애별 맞춤 서비스를 출시했거나 출시를 준비 중이다.

다양한 장애인 맞춤형 기술 선보여…“접근성은 핵심 가치”

청각장애인 맞춤형 서비스는 장애인 접근성 서비스 중 가장 성과가 두드러진 분야다. 구글은 전날 구글 I/O 기조연설을 통해 ‘실시간 자막(Live Caption)’ 기능을 공개했다. 기존에 유튜브 등에서 도입됐던 ‘자동 자막’ 기능을 발전시킨 서비스다.

클라우드에 연동된 서비스인 ‘자동 자막’과 달리 ‘실시간 자막’은 온디바이스 형태다. 온라인 연결 없이 휴대전화에 저장된 모든 영상·음성 파일에 적용할 수 있다. 새 안드로이드 OS인 ‘안드로이드Q’를 통해 ‘영어’에 한해 우선적으로 서비스를 시작할 예정이다.

또 다른 서비스는 지난 2월 출시한 ‘라이브 트랜스크라이브(Live Transcribe)’다. 대화를 그대로 활자로 옮기는 서비스로, AI과 머신러닝을 통해 화자를 구분하고 문맥에 맞는 단어로 표시가 된다.

지난 7일(현지시간) 열린 구글 I/O에서 기조연설을 하고 있는 선다 피차이 구글 CEO. (사진=AFP)
지난 3월 출시한 ‘룩아웃(Look Out)’은 시각장애인을 위한 서비스다. 시각장애인이 낯선 장소에 갔을 때를 고려해 스마트 디바이스의 카메라가 주변 상황이나 물체를 음성으로 설명해준다.

구글이 최근 연구에 열을 올리고 있는 분야는 구음장애인을 위한 서비스다. ‘프로젝트 유포리아(Project Euphonia)’는 여러 요인으로 정확한 발음을 하는 데 어려움을 겪는 이들을 위한 음성 인식 서비스 개발을 본격 추진하고 있다.

이밖에도 활자를 카메라로 인식해 읽어주는 기능을 저가 모델용 디바이스에도 확대 적용했다. 구글 측은 “전 세계 8억명 이상의 문맹인이나, 읽는 데 어려움이 있는 사람들에게 도움을 줄 것”이라고 설명했다.

구글은 AI를 통한 개인화와 함께 구글은 보안에도 주력하는 모습이다. 사용자가 손쉽게 프라이버시 설정을 변경할 수 있도록 했다. 머신러닝의 발전에 따라 새로운 접근방식인 ‘연합학습(Federated Learning)’이 큰 기여를 했다. 피차이 CEO는 “더 적은 데이터로 더 많은 것은 사용자에게 제공하고자 한다”고 밝혔다.

그는 지난 7일 뉴욕타임스 기고문에서도 “구글은 모든 사용자의 개인정보 보호 및 보안을 매우 중요하게 생각하고 있다”며 “모든 사용자가 자신의 데이터와 관련해 명확하고 의미 있는 선택을 내릴 수 있도록 노력해 나갈 것”이라며 보안에 대한 의지를 드러내기도 했다.

이데일리
추천 뉴스by Taboola

당신을 위한
맞춤 뉴스by Dable

소셜 댓글

많이 본 뉴스

바이오 투자 길라잡이 팜이데일리

왼쪽 오른쪽

스무살의 설레임 스냅타임

왼쪽 오른쪽

재미에 지식을 더하다 영상+

왼쪽 오른쪽

두근두근 핫포토

  • 홈런 신기록 달성
  • 꼼짝 마
  • 돌발 상황
  • 우승의 짜릿함
왼쪽 오른쪽

04517 서울시 중구 통일로 92 케이지타워 18F, 19F 이데일리

대표전화 02-3772-0114 I 이메일 webmaster@edaily.co.krI 사업자번호 107-81-75795

등록번호 서울 아 00090 I 등록일자 2005.10.25 I 회장 곽재선 I 발행·편집인 이익원

ⓒ 이데일리. All rights reserved