돌돌돌

구글 픽셀 4 발표를 보고.

돌돌임라 2019. 10. 17. 22:33
반응형

안녕하세요.

 

15일, 구글 픽셀 4가 발표되었습니다.

구글 픽셀 4에서는 드디어 Project Soli가 탑재되었습니다.

 

구글 픽셀 4에서 어떻게 Soli를 써먹을지 굉장히 기대했었습니다.

이전에 LG G8 ThinQ의 'Goodbye Touch'라는 문구를 보고 예상해 본 글 (링크) 에서도

LG G8 ThinQ에 Project Soli가 들어가는 줄 알고 혼자 기대했었죠. ^^

 

다들 구글 픽셀 4의 카메라 기능을 기대하실 때 전 Soli를 기대했었습니다.

 

 

 

그런데 막상 열어보니 결과물은 조금 실망스러웠습니다.

 

 

그래서 솔리 공식 홈페이지 (링크)에 들어가 보았습니다.

아무래도 직접 확인해보는 편이 나으니까요.

 

홈페이지 맨 하단에 다음과 같은 문구를 보실 수 있습니다.

 

Pixel 4 will be the first device with Soli,

powering Motion Sense which allows you to skip songs, snooze alarms and silence phone calls,

without touching your phone.

These capabilities are just the start, and just as Soli technology improves over time,

Motion Sense will evolve as well. Motion Sense will be available in select countries.

 

구글 번역을 돌려보면, 

 

Pixel 4는 Soli를 탑재 한 최초의 장치로 모션 감지 기능을 통해 

휴대 전화를 건드리지 않고도 노래 건너 뛰기, 알람 일시 중지 및 전화 통화를 할 수 있습니다.

이러한 기능은 시작에 불과하며 시간이 지나면서

Soli 기술이 향상됨에 따라 Motion Sense도 발전 할 것입니다. 

모션 센스는 일부 국가에서만 제공됩니다.

 

 

음... 아직은 Soli로 할 수 있는 기능이 많진 않습니다.

오히려 미디어 볼륨 조절과 같이 LG G8 ThinQ의 에어제스쳐가 더 나은 점도 있습니다.

 

그럼 구글이 또 삽질을 한 걸까요?

 

 

적혀있는 문구 중 하나를 한번 보시죠.

 

Being able to understand each other without words heightens our ability to connect, 

communicate and go about our lives with ease. 

What if we could experience a similar ease of connection and communication when we interact with technology?

 

말없이 서로를 이해할 수 있게 되면 우리의 삶을 쉽게 연결하고 소통할 수 있는 능력이 강화됩니다. 

기술과 상호 작용할 때 비슷한 연결 및 통신의 편리함을 경험할 수 있다면 어떨까요?

 

 

마찬가지로 구글 번역을 돌려봤습니다.

사용자가 일일히 조작을 하지 않아도 '알아서' 기기가 해준다면

얼마나 편리할지에 대해 이야기하고 있습니다.

 

사실 가끔 스마트폰을 조작하기도 귀찮거나 어려울 때가 있죠.

 

 

그럼 바로 아래의 문구를 보실까요? 마찬가지로 구글 번역을 이용했습니다.

 

솔리는 인간의 움직임의 뉘앙스를 이해하여 

자연스러운 신체 언어와 제스처를 입력의 형태로 사용할 수 있도록 합니다.

우리는 사용자와 Soli 간의 근접성 및 참여 수준 (인식, 참여 및 활동)에 따라

인간의 움직임을 그룹화하는 상호 작용 프레임 워크를 만들었습니다.

이 프레임워크는 일반적인 인간 비언어적 의사 소통 모델을 기반으로 합니다.

 

 

여기서 드디어 Soli의 의의를 알 수 있습니다.

 

사용자를 감지해서, (Aware)

사용자의 동작을 바탕으로 의도를 파악해, (Engaged)

의도대로 작동하는 (Active)

시스템입니다.

 

지금까지는 기기가 사용자의 상태를 알 수 있는 방법이 없었습니다.

고작해야 xyz 가속도계를 이용해서 기기가 어떤 상태인지 파악, 역으로 추론하는 수 밖에 없었습니다.

또한 사용자가 기기 앞에 앉아있는지, 서 있는지조차 알 수가 없었습니다.

 

 

하지만 Soli라면 사용자의 상태를 알 수 있고,

그걸 바탕으로 사용자가 원하는 것을 미리 준비할 수 있습니다.

 

시연에서 나온 알람이 울릴 때 알람을 끄려 손을 가져가면 볼륨이 점점 줄어드는 것이 한 예입니다.

기존의 기기라면 손을 가져가도 계속 동일한 볼륨으로 울릴 겁니다.

 

앞서 이야기가 나왔지만 아직은 시작에 불과하기 때문에 정말 소소한 것만 가능합니다.

발표 전에는 최소한 손 동작으로 볼륨을 조절하거나

기기를 조작하는 모션이 가능할거라 생각했기 때문에 솔직히 조금은 아쉽습니다.

 

너무 기대가 컸던 탓일까요?

 

 

Soli는 아직은 좀 미완성으로 내놓은 것처럼 보이지만

무궁무진하게 발전할 가능성이 있는 기능이 바로 Soli입니다.

 

물론 구글이 끌고 가다가 사장시킨 서비스가 한두개가 아니라 좀 불안하긴 하지만

부디 잘 진행해서 좀 더 나은 사용자 경험을 제공할 수 있었으면 좋겠습니다.

 

 

 

그리고 마지막으로 한가지 더,

 

Soli로 얼굴인식을 한다고 생각하기 쉽지만,

사실 Soli는 얼굴인식을 하기 위해 기기를 움직이는 것만을 인식하고

실제로 얼굴인식은 별도의 3D ToF 센서가 합니다. (스펙 출처 : 링크)

 

마치 LG G8 ThinQ 처럼요. :)

 

반응형