영화 속 시각효과 어떻게?…‘언리얼 엔진’이 바꾼 VFX 기술

기존 시각효과 ‘오프라인 후반작업’ 비효율적
촬영 전 배경 만들고 현장 수정하는 ‘리얼타임’ 대세
해외서도 인기, 아시아권에서는 한국이 주도
제작부담 줄고 자유도 확대, 창의적 경험 제공
  • 등록 2022-09-11 오전 9:00:00

    수정 2022-09-11 오전 9:00:00

[이데일리 김정유 기자] 최근 넷플릭스에서 화재를 모으고 있는 영화 ‘서울대작전’. 1988년의 시대를 그리고 있는 ‘서울대작전’은 영화적 재미는 차치하더라도 과거 서울의 모습을 실감나게 담았다는 점에서 눈길을 끈다. 어떻게 30여년 전 서울의 모습을 그려냈을까. 정답은 ‘버추얼 프로덕션’이다. 가상배경이 나오는 LED벽으로 된 스튜디오에서 촬영하는 인카메라VFX(시각특수효과) 기술로 현장감을 증폭시키는 게 골자다. 표현의 한계를 넘어선 영화 속 시각효과, 이는 2022년 현재도 다양한 방식으로 진화하고 있다.
영화 속 시각효과 발전에 큰 획을 그렸던 작품들.
과거 영화 속 시각효과, CG 없이 수작업

영화 속 시각효과, 시작은 1895년 뤼미에르 형제가 시네마토그래프를 이용해 움직이는 사진을 만든 ‘영화의 시작’부터였다. 이후 ‘달세계 여행’이라는 1902년도 영화에선 CG가 없던 시대였음에도 고속·저속촬영 등 오늘날까지 사용되는 다양한 촬영기법을 보여줬다. 1930년대에는 미니어처와 특수분장을 통해 거대한 ‘킹콩’(1933년)의 모습을 스크린에 담는가 하면, ‘오즈의 마법사’(1939년)에서는 존재하지 않는 도시를 그림으로 그려내 영화에 담기도 했다.

과거에는 CG가 없었기 때문에 유리에 그림을 그리고 촬영 장면에 덧대 배경을 씌우는 매트 페인팅 방법을 사용했다. 배경 이미지를 마치 트릭아트처럼 그려 입체적으로 표현하고 카메라 트릭을 통해 배우와 배경을 하나로 만들었다. 이 같은 방식은 현재 일기 예보는 물론 마블에서도 많이 사용하는 그린스크린 배경의 크로마키 합성의 원조라 할 수 있다.

CG란 개념이 처음 적용된 영화로 평가받는 ‘이색지대’(1973)는 인간 모양의 인공지능(AI) 로봇을 표현하며 SF 영화의 수준을 끌어올렸다. 하지만 주인공이 불에 타들어가는 장면 촬영을 위해 스턴트맨의 얼굴을 몇 겹으로 감싸 진짜 불을 붙여 촬영하는 등 현재의 제작방식과는 큰 차이가 있었따.

유명 SF영화 ‘스타워즈’(1977년)에서도 광선검의 궤적은 애니메이터들이 일일이 그렸다. 다만 이후 ‘스타워즈’로 인해 대규모 컴퓨터 그래픽에 대한 수요를 만들었고, 조지 루카스 감독이 ‘ILM’(Industrial Light & Magic)이라는 할리우드 최초의 VFX 스튜디오를 탄생시킨 계기가 됐다.
넷플릭스 ‘스위트홈’. (사진=넷플릭스)
80년대부터는 CG 활용, 최근 ‘리얼타임 렌더링’ 대세

1980년대에는 ‘트론’과 ‘피라미드의 공포’에서 CG 비중이 늘고 100% CG로 만들어진 캐릭터가 등장했으며, 아날로그와 디지털 특수효과의 조합의 정석을 보여준 ‘터미네이터 2’(1991년)가 등장해 영화계에 충격을 줬다. 이후 ‘쥬라기 공원’(1993)에서 공룡 모형이 CG로 대체되는가 하면 ‘타이타닉’(1997년)에서는 할리우드 사상 최초 모션 캡처가 등장했다. 모션 캡처는 ‘반지의 제왕’(2001년), ‘아바타’(2009년), ‘혹성탈출: 반격의 서막’(2014) 등 다양한 작품에서 활용돼 왔다.

그럼에도 여전히 스크린 시각효과 작업은 오프라인 렌더링 방식이 쓰이고 있다. 이 방식엔 불편한 ‘후반 작업’이 뒤따른다는 게 단점이다. 오프라인 렌더링은 기존처럼 작업 종료 후이야 최종 장면을 확인할 수 있어 재촬영이나 후보정을 반복하는 선형적인 작업 방식을 갖는다. 최종 결과물이 나오기까지 불확실성이 큰데다, 제작 시간과 비용도 절감하기 힘들다.

이에 최근에는 ‘리얼타임 렌더링’ 방식이 버추얼 프로덕션의 대세가 되고 있다. 리얼타임 렌더링은 실시간으로 촬영장에서 관계자들과 협의 및 수정이 가능하다. 세트나 배경을 직접 제작 또는 로케이션 하지 않아도 최종 결과물에 근접한 임시 이미지를 먼저 그려보고 현장 수정도 할 수 있다. 실시간으로 촬영 배경과 날씨 등 환경조건을 바꿀 수도 있다.

세트를 미리 3D로 그리기 때문에 제작자 의도에 더 근접하게 맞춰볼 수 있어 결과물의 불확실성 역시 줄일 수 있다. 또한 스턴트 효과를 미리 준비해 배우가 다치지 않도록 안전한 촬영도 가능하다. 시간, 비용, 인력 등 기존의 제작의 문제도 기술로 해결하는 셈이다. 이 같은 리얼타임 렌더링의 중심엔 에픽게임즈의 ‘언리얼 엔진’이 있다. 게임 엔진이 이젠 영화 VFX 시장까지 넘나들고 있는 셈이다.
영화 ‘승리호’. (사진=위지윅 스튜디오)
언리얼 엔진 활용 ‘리얼타임 렌더링’ 韓중심 확산

최근 해외에서도 인기를 얻고 있는 리얼타임 렌더링 방식은 한국이 아시아권에서 선두적인 위치를 차지하며 빠르게 확장되고 있다. 언리얼 엔진 같은 3D엔진은 주로 게임업계에서 사용됐으나 수년 전부터 영화와 드라마에서 사랑받고 있다. 이미 할리우드에서는 ‘스파이더맨: 노 웨이 홈’, ‘매트릭스: 리저렉션’, ‘프리 가이’, ‘정글 크루즈’, ‘더 수어사이드 스쿼드’, ‘듄’, ‘모탈 컴뱃 레전드: 배틀 오브 더 렐름’, ‘베놈: 렛 데어 비 카니지’ 등에 이 방식을 사용했다.

국내에서도 넷플릭스를 통해 전 세계에 이름을 알린 ‘스위트홈’, ‘승리호’, ‘고요의 바다’ 속 CG에 언리얼 엔진이 활용됐다. 영화 ‘기생충’도 일부 세트를 제외한 저택 배경은 언리얼 엔진을 활용한 프리비즈 방식으로 촬영 전부터 배경 디테일을 확인할 수 있었던 것으로 전해진다. 아주 최근엔 100% CG로 해상전투신을 구현한 영화 ‘한산’에도 프리비즈 기술이 사용됐다.

에픽게임즈에 따르면 지난해 전 세계에서 언리얼 엔진을 사용한 신작 영화 및 TV프로젝트는 전년대비 150% 증가했다. 한국에서도 CJ ENM, 브이에이코퍼레이션, 덱스터 스튜디오 등 많은 업체에서 언리얼 엔진으로 버추얼 프로덕션 기술을 구축 중이다. 넷플릭스도 최근 아시아 최초로 한국에 6년간 1270억원을 투자, 최첨단 VFX 영상 제작 시설을 설립하겠다는 계획을 발표한 바 있다.

이같은 리얼타임 렌더링 버추얼 프로덕션의 확대는 제작자가 자유로운 표현을 할 수 있도록 부담을 줄이고, 관객들에게 더 창의적인 콘텐츠를 제공할 기회를 확대할 것으로 기대된다. 우리에게 친숙한 게임엔진은 단순 게임을 벗어나 영화, TV 등 문화 전반으로 확산될 수 있을 전망이다.

넷플릭스 ‘고요의 바다’ (사진=넷플릭스)


이데일리
추천 뉴스by Taboola

당신을 위한
맞춤 뉴스by Dable

소셜 댓글

많이 본 뉴스

바이오 투자 길라잡이 팜이데일리

왼쪽 오른쪽

스무살의 설레임 스냅타임

왼쪽 오른쪽

재미에 지식을 더하다 영상+

왼쪽 오른쪽

두근두근 핫포토

  • 꼼짝 마
  • 우승의 짜릿함
  • 돌발 상황
  • 2억 괴물
왼쪽 오른쪽

04517 서울시 중구 통일로 92 케이지타워 18F, 19F 이데일리

대표전화 02-3772-0114 I 이메일 webmaster@edaily.co.krI 사업자번호 107-81-75795

등록번호 서울 아 00090 I 등록일자 2005.10.25 I 회장 곽재선 I 발행·편집인 이익원

ⓒ 이데일리. All rights reserved