Google we współpracy z MIT pracują nad projektem, który ulepszy podgląd zdjęcia w czasie rzeczywistym. Efekty będziemy widzieć na ekranie przed zrobieniem zdjęcia. Jak działa ta technologia?
Projekt ma polegać nad ulepszeniem zdjęcia przy pomocy algorytmów jeszcze przed jego wykonaniem, tak aby użytkownik mógł na żywo pracę sztucznej inteligencji.
Google w tym celu współpracuje z MIT (Massachusetts Institute of Technology). Razem stworzyli algorytmy, które są w stanie poprawić podgląd zdjęcia przed jego zrobieniem, dzięki czemu użytkownik od razu wie, jak będzie wyglądała fotografia po przetworzeniu przez smartfona.
Takie efekty osiągnięto dzięki uczeniu maszynowemu. Sztuczna inteligencja otrzymała do przeanalizowania zestaw zdjęć przed i po obróbce przez fotografów. Dzięki temu mogła prześledzić cały proces i nauczyć się postępować tak samo.
Cały proces świetnie wyjaśnia ten film.
Niestety w obecnej chwili nie wiadomo kiedy to rozwiązanie pojawi się w urządzeniach dostępnych na rynku. Technologia prezentuje się imponująco i pozostaje mieć nadzieję, że będzie po prostu dostępna w aplikacji Aparat w każdym smartfonie wyposażonym w system operacyjny Android.
Liczę, że Google nie zrobi z tego rozwiązania swojego rodzaju killer-feature, który byłby dostępny tylko w smartfonach z linii Pixel.
Co sądzicie o tej technologii? Czy jest to coś użytecznego, co zmieni sposób postrzegania i korzystania z aparatów w urządzeniach mobilnych?
Źródło: MIT news
Niektóre odnośniki na stronie to linki reklamowe.