차례:
이달 초 Google은 Google Lens용 새 필터를 발표했습니다. 이러한 새로운 추가 기능을 통해 우리는 휴대폰으로 주변 환경을 분석할 수 있고 예를 들어 식당의 메뉴나 가장 인기 있는 요리만큼 가치 있는 데이터를 얻을 수 있습니다. 이러한 기능은 약간의 재설계에도 불구하고 사용자에게 도달하기 시작했습니다.
새로운 Google 렌즈 인터페이스는 Google 어시스턴트를 통해 또는 Google 포토에서 직접 액세스할 수 있습니다. 이제 가로 스크롤을 사용하여 선택할 수 있는 5개의 새로운 모드에 액세스할 수 있습니다.이 새로운 모드에는 자동, 번역, 텍스트, 구매 및 식사 옵션이 있습니다.
Google 렌즈는 다른 브랜드와 마찬가지로 인공 지능으로 새로운 모드를 추가합니다.
이것은 우리가 이미 보았듯이 전혀 새로운 것이 아닙니다. 사실 매우 비슷합니다. 자동 모드는 가장 정확하지는 않지만 우리가 보고 있는 것을 분석하고 식별할 수 있습니다. 다음 두 개에서는 번역 모드를 통해 우리 언어로 된 텍스트를 실시간으로 얻을 수 있으며 텍스트 모드는 실제 세계에서 문자를 쓰지 않고도 스마트폰으로 내보낼 수 있도록 설계되었습니다.
마지막으로, 쇼핑 또는 식사 모드는 제품을 추가로 분석할 수 있습니다.쇼핑 모드는 모양이나 바코드를 통해 물체를 인식할 수 있습니다. 음식 옵션은 특정 레스토랑의 메뉴를 제공하는 것이지만 이를 위해서는 업체가 먼저 준비해야 합니다.
렌즈 옵션은 훌륭하지만 많은 기업이 준비되지 않았습니다.
이러한 모드는 화면 하단의 작은 캐러셀에 표시되며 이미지 캡처 버튼을 누를 필요가 없습니다., Google 렌즈는 카메라 앞에 있는 물체를 감지하는 즉시 작동을 시작합니다. 이 소프트웨어의 또 다른 흥미로운 옵션은 카메라로 초점을 맞추고 있는 이미지뿐만 아니라 이미 갤러리에 있는 사진을 분석할 수 있다는 것입니다. 전체 사진이 중요하지 않은 경우 이미지의 일부만 선택하여 분석하는 것도 가능합니다.
이 새로운 Google 렌즈 재설계는 Google 9.91 베타 사용자가 사용할 수 있습니다. Pixel 휴대전화 전용으로 보이지만 이미 일부 삼성 휴대전화에서도 테스트되었습니다. 9to5Google에서 지정한 대로 모든 사용자가 곧 사용할 수 있게 됩니다.
