|
접근성은 구글이 추구하는 가치의 핵심이다. 단순히 구글 서비스 접근을 넘어 기술을 통한 세상에 대한 물리적 접근성을 더 높이는 것이 구글이 추구하는 가치다. 구글은 접근성을 서비스 개발의 기본에 두기 위해 사내에 다양한 교육 프로그램도 운영하고 있다. 직원들을 상대로 장애에 대한 지속적인 교육을 통해 접근성 강화에 대한 분명한 방향성을 요구한다.
이와 함께 사내에 장애인 접근성 강화를 위한 장애지원팀을 두고 있다. 사용자들이 제품의 접근성에 문제가 있다고 생각할 경우 제보하면 장애지원팀이 직접 문제 해결에 나서게 된다. 패트릭 클래리(Patrick Clary) AI 및 접근성 부문 프로덕트 매니저는 8일(현지시간) 미국 캘리포니아 마운틴뷰에 위치한 구글 캠퍼스에서 기자들과 만나 “기술이 진보하며 머신러닝 등을 통한 접근성 강화 가능성을 보게 됐다”고 설명했다.
구글은 현재 장애인의 접근성을 높이기 위한 다양한 서비스를 운영 중이다. 시각·청각·구음 등 장애별로 맞춤형 서비스를 출시했거나 출시를 준비 중이다. 이들 서비스 대부분은 현재 미국에 한해 운영이 되고 있지만 구글은 지속적 연구를 통해 서비스 지역을 확대한다는 방침이다.
청각장애인용 서비스 가장 성과…‘실시간 자막’ 공개
일단 ‘실시간 자막’ 기능은 안드로이드의 새로운 OS인 ‘안드로이드Q’를 통해 서비스를 시작할 예정이다. 언어도 일단 영어에 한해서만 지원한다. 브라이언 켐러(Brian Kemler) 안드로이드 접근성 프로덕트 매니저는 “추후 용량, 연산력, 보안 등에서 일정한 사양을 갖춘 프리미엄폰에서 우선 서비스가 시작될 것 같다”고 밝혔다.
또 다른 서비스는 지난 2월 출시한 ‘라이브 트랜스크라이브(Live Transcribe)’다. 인공지능(AI)을 이용해 대화를 그대로 활자로 옮기는 서비스로, 인공지능(AI)과 머신러닝을 통해 화자를 구분하고 문맥에 맞는 단어로 표시가 된다. 기존에 나왔던 유사한 서비스들보다 정확하게 대화를 지원한다는 것이 구글 측의 설명이다. ‘실시간 자막’ 기능과 달리 클라우드 기반 서비스다.
룩아웃, 돈 금액까지 인식 가능
지난 3월 출시한 ‘룩아웃(Look Out)’은 시각장애인을 위한 서비스다. 시각장애인이 낯선 장소에 갔을 때를 고려해 스마트 디바이스의 카메라가 주변 상황이나 물체를 음성으로 설명해준다. 카메라에 들어온 사물을 디바이스가 직접 ‘사람’·‘책상’·‘스웨터’처럼 단어로 알려준다. 위치정보 접근이 가능하게 설정하면 ‘6시 방향에 사람이 있다’는 식의 설명을 하게 된다. 돈을 촬영할 경우 금액을 읽어준다.
현재 미국에서만 이용이 가능하다. 디바이스도 구글 픽셀폰과 삼성·LG 제품 일부만 구동이 된다. 클래리 매니저는 “향후 글로벌 확장을 하려고 하지만 지리적으로나 사물적으로 숙제가 많다”며 “한국의 경우 언어는 물론 화폐, 제품 표면 등이 미국과 달라, 서비스를 위해선 물밑에서 많은 노력이 필요하다”고 밝혔다.
구글이 최근 연구에 열을 올리고 있는 분야는 구음장애인을 위한 서비스다. ‘프로젝트 유포리아(Project Euphonia)’팀 주도로 뇌졸중·근위축측삭경화증(ALS)·다발성 경화증·외상성 뇌손상·파킨슨병 등의 영향으로 정확한 발음을 내는 데 어려움을 겪는 이들을 위한 음성 인식 서비스 개발을 본격 추진하고 있다.
|
일단 구음장애를 겪는 영어 사용자에 한해 연구가 진행 중이다. 카티오 매니저는 “초기단계인 지금은 우선 영어를 모국어로 하는 분들을 대상으로 프로젝트를 시작한다”고 전했다. 영어 사용자에 대한 연구가 성과를 내면 다른 언어나 독특한 악센트 사용자를 대상으로 서비스를 확대한다는 방침이다. 프로젝트 유포리아는 궁극적으로는 전혀 말을 하지 못하는 장애인들의 표정이나 입모양을 통해 말을 인식하는 기술을 개발하겠다는 구상이다.