기존의 엄청 복잡한 노드를 만져가며 하나 이상의 애니메이션들을 각각 수정해줘야 하던 방법을 벗어나, 모션캡쳐로 특정 행동들을 캡쳐한 뒤, 상황(Input이나, Ingame State)에 맞는 애니메이션을 골라 출력해주는 기술인 듯 하다.

갑작스러운 블랜딩, 부자연스러운 블랜딩, 인간 애니메이션 기준으로 생체역학 (Biomechanical)에 어긋나는 애니메이션같이, 어색하거나 이상한 부분들을 상당히 많이 잡아낼 수 있는 것 같아서 정말 보기 좋았다.

24:25 를 보면 Restricted to Human-like Rigs 라고 되어있는데, 지금은 좀 다를지 몰라도, 저 당시엔 아무래도 인간이 겪는 모션에 대한 연구가 핵심이었던 것 같다. 근데 저정도만 뽑아도 장난 없이 이쁘고 자연스럽다.

GDC 2016에서 발표된 모션 매칭은 모션캡쳐를 Dance Card 라고 하는 모션 매칭용 로코모션을 구하기 위한 행동 지시용 안내 표지를 말하는 것 같다.

대략 위와같은 모션을 캡쳐해야한다는 것 같다.

  • 걷기, 빠르게 걷기, 달리기
  • 돌기, 급격한 방향 회전에 의한 감속, 관성에 의한 감속
  • 무게 중심이동이 이뤄지며 생기는 몸의 기울임
  • 원을 돌며 부드러운 움직임 등등

위의 모션캡쳐 데이터를 활용하여, 상당히 괜찮은 로코모션을 기존 FSM 기준으로 3달 정도 걸리던 작업들이 10~15분짜리 모캡 데이터로 4시간 정도면 바로 구현해낼 수 있다고 한다. (지금은 더 좋아졌을 수도)

10~15분 정도의 캡쳐 데이터를 갖고서도 적당한 애니메이션이 나오고, 잘 나온 모캡만 따로 골라 사용하는 Split Dance Card Data 라는 기술도 있는 것 같다.

발표영상에 나온 엔진은 아무래도 Ubisoft의 자체엔진 같은데, 17:45초부터 보면, Cost Function을 사용해, 인풋이나 손 발의 위치, 속도 등의 여러 고려사항에 가중치를 적용해서 최종 결과포즈를 선택하거나 블랜딩 해서 뽑아낸다는 것 같다.

애니메이터나 기획자가 설정하기 편하게 만들어놨다는데 확실히 기본적인 구조를 끝내놓고 확률적인 부분만 수정을 할 수 있다면, 한 번 작업해둔 구조로 조금씩 바꿔가며 볼 수있어서 정말 좋을 것 같다.

추가적으로 급격한 변화로 인해 무게중심을 벗어나거나 충격을 받거나 하는 부분들에 대해서도 적용 가능한 영역이 무궁무진 한 것을 보았다.

정말 대단했다… 이런게 있는줄 오늘 처음 알았는데, 아직은 뭔지 확실히 모르겠지만, 중첩 스테이트 머신으로 하나하나씩 박고 조건달고 하면서 나왔던 Advanced Locomotion 에셋을 생각해보니까 확실히 더 나은 것 같다.

나중에 좀 더 알게되면, 그 때, 리뉴얼 해서 써봐야겠다.