차례:
Google과 MIT의 연구원들은 광각 촬영의 결함을 수정하는 알고리즘을 개발했습니다.
일부 사람들의 얼굴이 사진에서 늘어 지거나 약간 평평 해 지거나 왜곡되어 보이는 것을 보셨을 것입니다. 사진 작가의 기술이 적기 때문일 수 있지만 사실 모바일 장치에서 광각 렌즈로 촬영하면 일반적으로 이미지 가장자리에있는 물체 나 사람에 왜곡이 발생합니다.
이 문제를 해결하기위한 여러 가지 방법이 있지만 지금까지 Google의 새로운 제안만큼 효과적인 방법은 없습니다. 수정하기는 쉽지만 사진의 나머지 개체에 영향을주지 않는 복잡한 로컬 편집이 필요하기 때문에 그렇지 않습니다.
이것이 Google의 알고리즘이 작동하는 방식입니다.
연구원들이 설명했듯이이 알고리즘은 얼굴을 감지 하고 이미지에 표시된대로 광각으로 촬영할 때 이러한 유형의 왜곡을 자동으로 반전시킬 수 있는 메시 를 만듭니다.
다음 이미지에서이 알고리즘을 적용 할 때 차이를 알 수 있습니다. 시야각이 97 ° 인 광각 렌즈로 찍은 셀카입니다.
첫 번째 이미지는 얼굴의 왜곡을 보여주고 두 번째 이미지는 알고리즘이 얼굴 모양을 원래 상태로 복원 한 방법을 보여줍니다.
즉, 이 프로세스는 광각 렌즈를 사용할 때 자동으로 활성화 되어 얼굴에이 특별한 지원을 제공하지만 나머지 이미지는 변경하지 않습니다. 물론이 자동 수정의 속도 (약 920 밀리 초)는 사용자가 감지 할 수 없도록합니다.
그들이 수행 한 테스트에 따르면 이 알고리즘은 시야각 70 ° ~ 120 ° 범위에서 성공적으로 작동 하며 모바일 장치의 거의 모든 가능성을 포괄합니다.
이 알고리즘의 잠재력을 활용하기 위해 사용자는 어떤 조치를 취하거나 특별한 카메라 모드를 활성화 할 필요가 없습니다. 이 기능은 광각 렌즈 사용을 감지 할 때만 자동으로 구현됩니다.
컨텍스트를 고려한 자동 수정
다음 비디오에서이 알고리즘의 역학을 볼 수 있습니다.
알고리즘 은 장면에 나타나는 나머지 개체를 고려하여 자동으로 수정 하여 사진의 전체 컨텍스트를 일치시킵니다. 결과는 사진이 전혀 수정되었음을 보여주는 세부 사항없이 자연 스럽습니다.
이 프로젝트의 팀은 Flickr의 사진 갤러리를 공유하여 알고리즘의 역학과 비교하여이 문제를 해결하는 방법을 보여줍니다. 결과를 평가하는 데 도움이되는 160 개 이상의 사진 (기사 시작 부분에 표시되는 사진)이 있습니다.
이 기술은 픽셀에서 볼 수 있습니다.
이 프로젝트에 참여하는 팀이 Google 직원이기 때문에이 알고리즘 또는 일부 파생 기술이 차세대 Pixel에 적용될 수 있기를 바랍니다.
그러나 그들이 공유 한 문서에서 그들은 그것에 대해 아무것도 언급하지 않았습니다. 작동중인 알고리즘의 이러한 첫 번째 테스트는 인공 지능의 잠재력이 모바일 장치의 역학을 개선하고 사용자의 삶을 더 쉽게 만드는 방법을 다시 한 번 성공적으로 보여주었습니다.
의심 할 여지없이 모바일 장치에서 유사한 역학을 사용하면 사진에서 이러한 왜곡을 편집하는 데 많은 골칫거리와 시간을 절약 할 수 있습니다.
