Wiele kamer zamiast megapikseli
Technologia

Wiele kamer zamiast megapikseli

Fotografia w telefonach komórkowych przeszła już wielką wojnę megapikselową, której nikt nie mógł wygrać, bo istniały fizyczne ograniczenia w matrycach i wielkości smartfonów, które uniemożliwiały dalszą miniaturyzację. Teraz następuje proces podobny do konkursu, który najwięcej włoży do kamery (1). W każdym razie ostatecznie jakość zdjęć jest zawsze ważna.

W pierwszej połowie 2018 roku, za sprawą dwóch nowych prototypów aparatów, dość głośno odezwała się nieznana firma Light, która oferuje technologię wieloobiektywową – nie na swoje czasy, ale na inne modele smartfonów. Choć firma, jak pisał wówczas MT, już w 2015 roku model L16 z szesnastoma obiektywami (1), w ciągu ostatnich kilku miesięcy popularne stało się mnożenie kamer w komórkach.

Aparat pełen obiektywów

Ten pierwszy model firmy Light był kompaktowym aparatem (nie telefonem komórkowym) wielkości telefonu, który został zaprojektowany, aby zapewnić jakość lustrzanki cyfrowej. Fotografował w rozdzielczościach do 52 megapikseli, oferował zakres ogniskowych 35-150 mm, wysoką jakość przy słabym oświetleniu i regulowaną głębię ostrości. Wszystko jest możliwe dzięki połączeniu nawet szesnastu aparatów smartfonów w jednym korpusie. Żaden z tych wielu obiektywów nie różnił się od optyki w smartfonach. Różnica polegała na tym, że zostały zebrane w jednym urządzeniu.

2. Kamery świetlne z wieloma obiektywami

Podczas fotografowania obraz był rejestrowany jednocześnie przez dziesięć kamer, każdy z własnymi ustawieniami ekspozycji. Wszystkie wykonane w ten sposób fotografie zostały połączone w jedno duże zdjęcie, które zawierało wszystkie dane z pojedynczych ekspozycji. System umożliwiał edycję głębi ostrości i punktów ostrości gotowego zdjęcia. Zdjęcia zostały zapisane w formatach JPG, TIFF lub RAW DNG. Dostępny na rynku model L16 nie posiadał typowej lampy błyskowej, ale zdjęcia można było oświetlać za pomocą małej diody LED umieszczonej w korpusie.

Ta premiera w 2015 roku miała status ciekawostki. Nie przyciągnęło to uwagi wielu mediów i masowej publiczności. Jednak biorąc pod uwagę, że Foxconn działał jako inwestor Light, dalszy rozwój wydarzeń nie był niespodzianką. Jednym słowem wynikało to z rosnącego zainteresowania rozwiązaniem ze strony firm współpracujących z tajwańskim producentem sprzętu. A klientami Foxconna są zarówno Apple, jak i w szczególności Blackberry, Huawei, Microsoft, Motorola czy Xiaomi.

I tak w 2018 roku pojawiły się informacje o pracach Lighta nad systemami wielokamerowymi w smartfonach. Potem okazało się, że startup współpracował z Nokią, która w 2019 roku zaprezentowała pierwszy na świecie telefon z pięcioma kamerami na targach MWC w Barcelonie. Model 9 PureView (3) wyposażone w dwie kamery kolorowe i trzy kamery monochromatyczne.

Sveta wyjaśnił na stronie Quartz, że istnieją dwie główne różnice między L16 a Nokią 9 PureView. Ten ostatni wykorzystuje nowszy system przetwarzania do łączenia zdjęć z poszczególnych obiektywów. Ponadto projekt Nokii obejmuje aparaty inne niż te, które pierwotnie były używane przez Light, z optyką ZEISS, która wychwytuje więcej światła. Trzy kamery rejestrują tylko czarno-białe światło.

Szereg kamer, każda o rozdzielczości 12 megapikseli, zapewnia większą kontrolę nad głębią ostrości obrazu i pozwala użytkownikom uchwycić szczegóły, które są normalnie niewidoczne dla konwencjonalnej kamery komórkowej. Co więcej, zgodnie z opublikowanymi opisami, PureView 9 jest w stanie przechwycić do dziesięciu razy więcej światła niż inne urządzenia i może produkować zdjęcia o łącznej rozdzielczości do 240 megapikseli.

Nagłe uruchomienie telefonów z wieloma kamerami

Światło nie jest jedynym źródłem innowacji w tej dziedzinie. Patent koreańskiej firmy LG z listopada 2018 r. opisuje łączenie różnych kątów kamery w celu stworzenia miniaturowego filmu przypominającego kreacje Apple Live Photos lub obrazy z urządzeń Lytro, o którym MT również pisało kilka lat temu, przechwytując pole światła z regulowanym polem widzenia .

Według patentu LG rozwiązanie to jest w stanie łączyć różne zestawy danych z różnych obiektywów, aby wycinać obiekty z obrazu (na przykład w przypadku trybu portretowego lub nawet całkowitej zmiany tła). Oczywiście jest to na razie tylko patent, nic nie wskazuje na to, że LG planuje wdrożyć go w telefonie. Jednak wraz z eskalacją wojny w fotografii smartfonowej telefony z tymi funkcjami mogą trafić na rynek szybciej niż nam się wydaje.

Jak zobaczymy studiując historię aparatów wieloobiektywowych, systemy dwukomorowe wcale nie są nowe. Jednak umieszczenie trzech lub więcej kamer jest piosenką ostatnich dziesięciu miesięcy..

Wśród głównych producentów telefonów, chiński Huawei najszybciej wprowadził na rynek model z trzema aparatami. Już w marcu 2018 złożył ofertę Huawei P20 Pro (4), który oferował trzy obiektywy - zwykły, monochromatyczny i telezoom, wprowadzony kilka miesięcy później. Mate 20, również z trzema kamerami.

Jednak, jak to już miało miejsce w historii technologii mobilnych, wystarczyło odważnie wprowadzić nowe rozwiązania Apple do wszystkich mediów, aby zacząć mówić o przełomie i rewolucji. Tak jak pierwszy model iPhone’a w 2007 roku „uruchomiono” rynek znanych wcześniej smartfonów, a pierwszy IPad (ale wcale nie pierwszy tablet) w 2010 roku rozpoczęła się era tabletów, więc we wrześniu 2019 roku wieloobiektywowe iPhone’y „jedenaście” (5) firmy z jabłkiem na emblemacie można uznać za nagły początek era smartfonów wielokamerowych.

11 Pro Oraz 11 Pro Max wyposażony w trzy kamery. Ten pierwszy ma sześcioelementowy obiektyw o ogniskowej pełnoklatkowej 26 mm i przysłonie f/1.8. Producent twierdzi, że ma nowy 12-megapikselowy sensor ze 100% ostrością pikseli, co może oznaczać rozwiązanie podobne do tych stosowanych w aparatach Canon czy smartfonach Samsunga, gdzie każdy piksel składa się z dwóch fotodiod.

Drugi aparat ma obiektyw szerokokątny (o ogniskowej 13 mm i jasności f/2.4), wyposażony w matrycę o rozdzielczości 12 megapikseli. Oprócz opisanych modułów istnieje teleobiektyw, który podwaja ogniskową w porównaniu ze standardowym obiektywem. To jest konstrukcja przysłony f/2.0. Czujnik ma taką samą rozdzielczość jak pozostałe. Zarówno teleobiektyw, jak i obiektyw standardowy wyposażone są w optyczną stabilizację obrazu.

We wszystkich wersjach spotkamy telefony Huawei, Google Pixel czy Samsung. tryb nocny. Jest to również charakterystyczne rozwiązanie dla systemów wielozadaniowych. Polega ona na tym, że aparat wykonuje kilka zdjęć z różną kompensacją ekspozycji, a następnie łączy je w jedno zdjęcie z mniejszą ilością szumów i lepszą dynamiką tonalną.

Aparat w telefonie – jak to się stało?

Pierwszym telefonem z aparatem był Samsung SCH-V200. Urządzenie pojawiło się na półkach sklepowych w Korei Południowej w 2000 roku.

Pamiętał dwadzieścia zdjęć o rozdzielczości 0,35 megapiksela. Aparat miał jednak poważną wadę – nie integrował się dobrze z telefonem. Z tego powodu niektórzy analitycy uważają go za osobne urządzenie, zamknięte w tej samej obudowie, a nie integralną część telefonu.

Zupełnie inaczej sytuacja wyglądała w przypadku J-Telefon, czyli telefon, który Sharp przygotował na rynek japoński pod koniec ubiegłego tysiąclecia. Sprzęt robił zdjęcia w bardzo niskiej jakości 0,11 megapiksela, ale w przeciwieństwie do oferty Samsunga, zdjęcia można było przesyłać bezprzewodowo i wygodnie przeglądać na ekranie telefonu komórkowego. J-Phone wyposażony jest w kolorowy wyświetlacz, który wyświetla 256 kolorów.

Telefony komórkowe szybko stały się niezwykle modnym gadżetem. Jednak nie dzięki urządzeniom Sanyo czy J-Phone, ale propozycjom mobilnych gigantów, głównie ówczesnej Nokii i Sony Ericssona.

Nokia 7650 wyposażony w aparat 0,3 megapiksela. Był to jeden z pierwszych szeroko dostępnych i popularnych fototelefonów. Dobrze też radził sobie na rynku. SonyEricsson T68i. Ani jeden telefon przed nim nie mógł jednocześnie odbierać i wysyłać wiadomości MMS. Jednak w przeciwieństwie do poprzednich modeli recenzowanych w zestawieniu, aparat do T68i trzeba było kupić osobno i dołączyć do telefonu komórkowego.

Po wprowadzeniu tych urządzeń, popularność aparatów w telefonach komórkowych zaczęła rosnąć w ogromnym tempie – już w 2003 roku sprzedawano je na całym świecie bardziej niż standardowe aparaty cyfrowe.

W 2006 roku ponad połowa telefonów komórkowych na świecie miała wbudowaną kamerę. Rok później ktoś po raz pierwszy wpadł na pomysł umieszczenia dwóch soczewek w celi…

Od mobilnej telewizji przez 3D po coraz lepszą fotografię

Wbrew pozorom historia rozwiązań wielokamerowych nie jest taka krótka. Samsung oferuje w swoim modelu B710 (6) podwójna soczewka w 2007 roku. Wprawdzie w tym czasie większą uwagę zwracano na możliwości tego aparatu w dziedzinie telewizji mobilnej, ale system dwóch obiektywów umożliwił utrwalanie fotograficznych wspomnień w Efekt 3D. Gotowe zdjęcie oglądaliśmy na wyświetlaczu tego modelu bez konieczności noszenia specjalnych okularów.

W tamtych latach panowała wielka moda na 3D, systemy kamer były postrzegane jako możliwość odtworzenia tego efektu.

LG Optimus 3D, którego premiera odbyła się w lutym 2011 r. oraz HTC Evo 3D, wydany w marcu 2011 roku, wykorzystywał podwójne obiektywy do tworzenia zdjęć 3D. Wykorzystali tę samą technikę, którą stosowali konstruktorzy „zwykłych” kamer 3D, używając podwójnych obiektywów, aby stworzyć wrażenie głębi obrazów. Zostało to ulepszone dzięki wyświetlaczowi 3D zaprojektowanemu do wyświetlania otrzymanych obrazów bez okularów.

Jednak 3D okazało się tylko przemijającą modą. Wraz z jego upadkiem ludzie przestali myśleć o systemach wielokamerowych jako narzędziu do uzyskiwania obrazów stereograficznych.

W każdym razie nie więcej. Pierwszą kamerą, która oferowała dwa przetworniki obrazu do celów podobnych do dzisiejszych, była HTC One M8 (7), wydany w kwietniu 2014 r. Główny czujnik UltraPixel o rozdzielczości 4 MP i czujnik dodatkowy 2 MP zostały zaprojektowane tak, aby tworzyć wrażenie głębi na zdjęciach.

Drugi obiektyw utworzył mapę głębi i uwzględnił ją w końcowym wyniku obrazu. Oznaczało to możliwość tworzenia efektu rozmycie tła , ponownie ustawiając ostrość obrazu za dotknięciem panelu wyświetlacza i łatwo zarządzaj zdjęciami, zachowując ostrość obiektu i zmieniając tło nawet po zrobieniu zdjęcia.

Jednak w tamtym czasie nie wszyscy rozumieli potencjał tej techniki. HTC One M8 może nie był rynkową porażką, ale nie cieszył się też szczególną popularnością. Kolejny ważny budynek w tej historii, LG G5, został wydany w lutym 2016 r. Zawierał główny czujnik 16 MP i dodatkowy czujnik 8 MP, który jest 135-stopniowym szerokokątnym obiektywem, na który można było przełączyć urządzenie.

W kwietniu 2016 roku Huawei zaoferował model we współpracy z Leicą. P9, z dwoma kamerami z tyłu. Jeden z nich służył do przechwytywania kolorów RGB (), drugi służył do przechwytywania szczegółów monochromatycznych. To właśnie na bazie tego modelu Huawei stworzył później wspomniany model P20.

W 2016 roku został również wprowadzony na rynek iPhone 7 plus z dwoma aparatami z tyłu – oba 12-megapikselowe, ale o różnych ogniskowych. Pierwszy aparat miał zoom 23 mm, a drugi 56 mm, co zapoczątkowało erę telefotografii smartfonowej. Pomysł polegał na umożliwieniu użytkownikowi powiększania obrazu bez utraty jakości – Apple chciał rozwiązać problem, który uważał za główny problem związany ze smartfonową fotografią, i opracował rozwiązanie dopasowane do zachowań konsumentów. Odzwierciedlał również rozwiązanie HTC, oferując efekty bokeh przy użyciu map głębi uzyskanych z danych z obu obiektywów.

Pojawienie się Huawei P20 Pro na początku 2018 roku oznaczało integrację wszystkich przetestowanych dotychczas rozwiązań w jednym urządzeniu z potrójnym aparatem. Do systemu czujników RGB i monochromatycznych dodano obiektyw zmiennoogniskowy, a zastosowanie Sztuczna inteligencja dawał znacznie więcej niż zwykłą sumę optyki i czujników. Do tego imponujący tryb nocny. Nowy model okazał się wielkim sukcesem i w sensie rynkowym okazał się przełomem, a nie oślepiającym liczbą obiektywów aparatem Nokii czy znanym produktem Apple.

Zwiastun trendu posiadania więcej niż jednego aparatu w telefonie, Samsung (8) również wprowadził w 2018 roku aparat z trzema obiektywami. To było w modelu Samsung Galaxy A7.

8. Moduł produkcyjny z dwoma obiektywami Samsung

Producent zdecydował się jednak na zastosowanie obiektywów: zwykłych, szerokokątnych i trzeciego oka, aby zapewnić niezbyt dokładne „informacje o głębi”. Ale inny model Galaxy A9, oferowane są łącznie cztery obiektywy: ultraszerokokątny, teleobiektyw, standardowy aparat i czujnik głębi.

To dużo, ponieważ Na razie trzy obiektywy to nadal standard. Oprócz iPhone’a flagowe modele ich marek, takie jak Huawei P30 Pro i Samsung Galaxy S10+, mają z tyłu trzy aparaty. Oczywiście nie liczymy mniejszego przedniego obiektywu do selfie..

Google wydaje się to wszystko obojętne. Jego piksel 3 miał jeden z najlepszych aparatów na rynku i mógł zrobić „wszystko” jednym obiektywem.

Urządzenia Pixel używają niestandardowego oprogramowania do zapewniania efektów stabilizacji, powiększania i głębi. Wyniki nie były tak dobre, jak mogłyby być z wieloma obiektywami i czujnikami, ale różnica była niewielka, a telefony Google nadrabiały małe luki doskonałą wydajnością przy słabym oświetleniu. Jak się jednak wydaje ostatnio w modelu piksel 4, nawet Google w końcu się zepsuło, choć nadal oferuje tylko dwa obiektywy: zwykły i tele.

Nie z tyłu

Co daje dodanie dodatkowych aparatów do jednego smartfona? Zdaniem ekspertów, jeśli nagrywają na różnych ogniskowych, ustawiają różne przysłony i przechwytują całe partie zdjęć do dalszego przetwarzania algorytmicznego (komponowania), zapewnia to zauważalny wzrost jakości w porównaniu do zdjęć uzyskiwanych za pomocą jednego aparatu w telefonie.

Zdjęcia są wyraźniejsze, bardziej szczegółowe, z bardziej naturalnymi kolorami i większym zakresem dynamicznym. Słabe oświetlenie jest również znacznie lepsze.

Wiele osób czytających o możliwościach systemów wieloobiektywowych kojarzy je głównie z rozmyciem tła portretu bokeh, czyli tzw. wyprowadzanie obiektów poza głębię ostrości z nieostrością. Ale to nie wszystko.

Kamery tego typu realizują coraz szerszy zakres funkcji, w tym dokładniejsze mapowanie XNUMXD, wprowadzając Rozszerzona Rzeczywistość oraz lepsze rozpoznawanie twarzy i krajobrazów.

Wcześniej za pomocą aplikacji i sztucznej inteligencji sensory optyczne smartfonów podejmowały takie zadania jak termowizja, tłumaczenie obcych tekstów na podstawie zdjęć, rozpoznawanie konstelacji gwiazd na nocnym niebie czy analizowanie ruchów sportowca. Zastosowanie systemów wielokamerowych znacznie zwiększa wydajność tych zaawansowanych funkcji. A przede wszystkim łączy nas wszystkich w jednym pakiecie.

Dawna historia rozwiązań wielocelowych pokazuje inne poszukiwania, ale trudnym problemem zawsze były wysokie wymagania dotyczące przetwarzania danych, jakości algorytmów i zużycia energii. W przypadku nowoczesnych smartfonów, które wykorzystują zarówno mocniejsze niż dotychczas procesory sygnału wizualnego, jak i energooszczędne procesory sygnału cyfrowego, a nawet ulepszone możliwości sieci neuronowej, problemy te zostały znacznie zredukowane.

Wysoki poziom szczegółowości, świetne możliwości optyczne i konfigurowalne efekty bokeh znajdują się obecnie na szczycie listy nowoczesnych wymagań dotyczących fotografii smartfonowej. Do niedawna, aby je spełnić, użytkownik smartfona musiał przepraszać za pomocą tradycyjnego aparatu. Niekoniecznie dzisiaj.

W przypadku dużych aparatów efekt estetyczny pojawia się naturalnie, gdy rozmiar obiektywu i rozmiar przysłony są wystarczająco duże, aby uzyskać analogowe rozmycie wszędzie tam, gdzie piksele są nieostre. Telefony komórkowe mają soczewki i czujniki (9), które są zbyt małe, aby mogło to nastąpić naturalnie (w przestrzeni analogowej). Dlatego opracowywany jest proces emulacji oprogramowania.

Piksele znajdujące się dalej od obszaru ostrości lub płaszczyzny ogniskowania są sztucznie rozmyte przy użyciu jednego z wielu algorytmów rozmycia powszechnie stosowanych w przetwarzaniu obrazu. Odległość każdego piksela od obszaru ostrości jest najlepsza i najszybsza mierzona za pomocą dwóch fotografii wykonanych w odległości ~1 cm.

Dzięki stałej długości podziału i możliwości fotografowania obu widoków jednocześnie (unikając szumów ruchu), możliwe jest triangulowanie głębi każdego piksela na zdjęciu (przy użyciu algorytmu wielowidokowego stereo). Teraz łatwo jest uzyskać doskonałe oszacowanie położenia każdego piksela w stosunku do obszaru ostrości.

Nie jest to łatwe, ale telefony z dwoma aparatami ułatwiają ten proces, ponieważ mogą robić zdjęcia w tym samym czasie. Systemy z jednym obiektywem muszą albo wykonać dwa kolejne ujęcia (pod różnymi kątami) albo użyć innego zoomu.

Czy istnieje sposób na powiększenie zdjęcia bez utraty rozdzielczości? teleobiektyw ( optyczny). Maksymalny rzeczywisty zoom optyczny, jaki można obecnie uzyskać na smartfonie, to 5× w Huawei P30 Pro.

Niektóre telefony wykorzystują systemy hybrydowe, które wykorzystują zarówno obrazy optyczne, jak i cyfrowe, co pozwala na powiększanie bez widocznej utraty jakości. Wspomniany Google Pixel 3 wykorzystuje do tego niezwykle złożone algorytmy komputerowe, nic dziwnego, że nie potrzebuje dodatkowych obiektywów. Jednak Kwartet został już zaimplementowany, więc wydaje się, że bez optyki trudno się obejść.

Fizyka konstrukcji typowego obiektywu sprawia, że ​​bardzo trudno jest dopasować obiektyw zmiennoogniskowy do smukłego korpusu smartfona z wyższej półki. W rezultacie producenci telefonów byli w stanie osiągnąć maksymalnie 2x lub 3x zysk na optycznym czasie dzięki tradycyjnej orientacji smartfona z czujnikiem. Dodanie teleobiektywu zwykle oznacza grubszy telefon, mniejszą matrycę lub zastosowanie składanej optyki.

Jednym ze sposobów przekroczenia punktu centralnego jest tzw złożona optyka (dziesięć). Czujnik modułu aparatu jest umieszczony pionowo w telefonie i skierowany w stronę obiektywu, którego oś optyczna biegnie wzdłuż obudowy telefonu. Lustro lub pryzmat umieszcza się pod odpowiednim kątem, aby odbijać światło ze sceny do obiektywu i czujnika.

10. Zaawansowana optyka w smartfonie

Pierwsze projekty tego typu zawierały nieruchome zwierciadło odpowiednie dla systemów z dwoma obiektywami, takich jak produkty Falcon i Corephotonics Hawkeye, które łączą w jednym urządzeniu tradycyjny aparat i wyrafinowaną konstrukcję teleobiektywu. Jednak na rynek zaczynają wchodzić również projekty firm takich jak Light, wykorzystujące ruchome lustra do syntezy obrazów z wielu kamer.

Zupełne przeciwieństwo teleobiektywu fotografia szerokokątna. Zamiast zbliżeń szerokokątny widok pokazuje więcej tego, co jest przed nami. Fotografia szerokokątna została wprowadzona jako drugi system obiektywów w LG G5 i kolejnych telefonach.

Opcja szerokokątna jest szczególnie przydatna do uchwycenia ekscytujących momentów, takich jak przebywanie w tłumie na koncercie lub w miejscu zbyt dużym, aby uchwycić go węższym obiektywem. Świetnie nadaje się również do fotografowania pejzaży miejskich, wieżowców i innych rzeczy, których zwykłe obiektywy po prostu nie widzą. Zwykle nie ma potrzeby przełączania się na jeden lub drugi „tryb”, ponieważ aparat przełącza się, gdy zbliżasz się lub oddalasz od obiektu, co ładnie integruje się z normalnym działaniem aparatu w aparacie. .

Według LG, 50% użytkowników dwóch aparatów fotograficznych używa obiektywu szerokokątnego jako głównego aparatu.

Obecnie cała linia smartfonów jest już wyposażona w czujnik przeznaczony do ćwiczeń. zdjęcia monochromatyczneczyli czarno-białe. Ich największą zaletą jest ostrość, dlatego niektórzy fotografowie preferują je właśnie w ten sposób.

Nowoczesne telefony są wystarczająco inteligentne, aby połączyć tę ostrość z informacjami z czujników kolorów, aby stworzyć ramkę, która teoretycznie jest dokładniej oświetlona. Jednak użycie czujnika monochromatycznego jest nadal rzadkością. Jeśli jest dołączony, zwykle można go odizolować od innych soczewek. Tę opcję można znaleźć w ustawieniach aplikacji aparatu.

Ponieważ czujniki aparatu nie rejestrują kolorów samodzielnie, wymagają aplikacji kolorowe filtry o rozmiarze piksela. W rezultacie każdy piksel rejestruje tylko jeden kolor — zwykle czerwony, zielony lub niebieski.

Powstała suma pikseli jest tworzona w celu stworzenia użytecznego obrazu RGB, ale w tym procesie występują kompromisy. Pierwszym z nich jest utrata rozdzielczości spowodowana przez matrycę kolorów, a ponieważ każdy piksel otrzymuje tylko ułamek światła, aparat nie jest tak czuły jak urządzenie bez matrycy filtrów kolorów. W tym miejscu na ratunek przychodzi fotograf wrażliwy na jakość dzięki monochromatycznej matrycy, która może rejestrować i rejestrować w pełnej rozdzielczości całe dostępne światło. Połączenie obrazu z kamery monochromatycznej z obrazem z głównej kamery RGB daje bardziej szczegółowy obraz końcowy.

Drugi czujnik monochromatyczny doskonale nadaje się do tej aplikacji, ale to nie jedyna opcja. Na przykład Archos robi coś podobnego do zwykłego monochromatycznego, ale używa dodatkowego czujnika RGB o wyższej rozdzielczości. Ponieważ obie kamery są przesunięte względem siebie, proces wyrównywania i łączenia dwóch obrazów pozostaje trudny, a ostateczny obraz zwykle nie jest tak szczegółowy, jak wersja monochromatyczna o wyższej rozdzielczości.

W efekcie otrzymujemy jednak wyraźną poprawę jakości w porównaniu do zdjęcia wykonanego pojedynczym modułem aparatu.

Czujnik głębokości, stosowany m.in. w aparatach Samsunga, pozwala na profesjonalne efekty rozmycia i lepsze renderowanie AR przy użyciu zarówno przedniego, jak i tylnego aparatu. Jednak telefony z wyższej półki stopniowo zastępują czujniki głębokości, wprowadzając ten proces do aparatów, które mogą również wykrywać głębię, takich jak urządzenia z ultraszerokokątnymi lub teleobiektywami.

Oczywiście czujniki głębi będą prawdopodobnie nadal pojawiać się w tańszych telefonach i tych, które mają na celu tworzenie efektów głębi bez drogiej optyki, takich jak Moto G7.

Rzeczywistość rozszerzona, czyli prawdziwa rewolucja

Gdy telefon wykorzystuje różnice w obrazach z wielu kamer, aby utworzyć z niego mapę odległości w danej scenie (powszechnie określaną jako mapa głębi), może następnie wykorzystać to do zasilania aplikacja rzeczywistości rozszerzonej (AR). Pomoże to na przykład w umieszczaniu i wyświetlaniu syntetycznych obiektów na powierzchniach sceny. Jeśli zostanie to zrobione w czasie rzeczywistym, obiekty będą mogły ożywać i poruszać się.

Zarówno Apple z ARKit, jak i Android z ARCore zapewniają platformy AR dla telefonów z wieloma kamerami. 

Jednym z najlepszych przykładów nowych rozwiązań pojawiających się wraz z rozprzestrzenianiem się smartfonów z wieloma aparatami są osiągnięcia start-upu Lucid z Doliny Krzemowej. W niektórych kręgach może być znany jako twórca Kamera VR180 LucidCam i myśl technologiczna rewolucyjnej konstrukcji aparatu Czerwony 8K 3D

Specjaliści Lucid stworzyli platformę Wyczyść fuzję 3D (11), który wykorzystuje uczenie maszynowe i dane statystyczne do szybkiego pomiaru głębi obrazów w czasie rzeczywistym. Ta metoda umożliwia korzystanie z funkcji niedostępnych wcześniej w smartfonach, takich jak zaawansowane śledzenie obiektów AR i gestykulacja w powietrzu przy użyciu obrazów o wysokiej rozdzielczości. 

11. Technologie wizualizacji Lucid

Z punktu widzenia firmy rozprzestrzenianie się aparatów w telefonach jest niezwykle użytecznym obszarem dla czujników rzeczywistości rozszerzonej wbudowanych we wszechobecne komputery kieszonkowe, które uruchamiają aplikacje i są zawsze połączone z Internetem. Już teraz aparaty smartfonów są w stanie identyfikować i dostarczać dodatkowe informacje o tym, do czego je kierujemy. Pozwalają na zbieranie danych wizualnych i oglądanie obiektów rozszerzonej rzeczywistości umieszczonych w świecie rzeczywistym.

Oprogramowanie Lucid może konwertować dane z dwóch kamer na informacje 3D używane do mapowania w czasie rzeczywistym i nagrywania scen z informacjami o głębi. Pozwala to na szybkie tworzenie modeli 3D i gier wideo XNUMXD. Firma użyła swojego LucidCam do zbadania poszerzania zakresu ludzkiego widzenia w czasach, gdy smartfony z dwoma kamerami stanowiły tylko niewielką część rynku.

Wielu komentatorów zwraca uwagę, że skupiając się wyłącznie na fotograficznych aspektach istnienia smartfonów wielokamerowych, nie widzimy, co taka technologia może w rzeczywistości ze sobą nieść. Weźmy na przykład iPhone'a, który wykorzystuje algorytmy uczenia maszynowego do skanowania obiektów w scenie, tworząc trójwymiarową mapę terenu i obiektów w czasie rzeczywistym. Oprogramowanie wykorzystuje to do oddzielenia tła od pierwszego planu w celu selektywnego skupienia się na zawartych w nim obiektach. Powstałe efekty bokeh to tylko sztuczki. Coś innego jest ważne.

Oprogramowanie, które przeprowadza tę analizę widocznej sceny jednocześnie tworzy wirtualne okno na świat rzeczywisty. Korzystając z rozpoznawania gestów dłoni, użytkownicy będą mogli w naturalny sposób wchodzić w interakcję ze światem rzeczywistości mieszanej za pomocą tej mapy przestrzennej, a akcelerometr telefonu i dane GPS będą wykrywać i wprowadzać zmiany w sposobie przedstawiania i aktualizowania świata.

tak Dodanie aparatów do smartfonów, pozornie pusta zabawa i rywalizacja o to, kto daje najwięcej, może w końcu fundamentalnie wpłynąć na interfejs maszyny, a potem, kto wie, sposoby interakcji między ludźmi..

Wracając jednak do dziedziny fotografii, wielu komentatorów zauważa, że ​​rozwiązania wielokamerowe mogą być ostatnim gwoździem do trumny wielu rodzajów aparatów, takich jak lustrzanki cyfrowe. Przełamanie barier jakości obrazu oznacza, że ​​tylko najwyższej jakości specjalistyczny sprzęt fotograficzny zachowa rację bytu. To samo może się zdarzyć z kamerami wideo.

Innymi słowy, smartfony wyposażone w zestawy aparatów różnego typu zastąpią nie tylko proste pstryczki, ale i większość profesjonalnych urządzeń. Trudno jeszcze ocenić, czy tak się stanie. Na razie uważają to za udane.

Zobacz także:

Dodaj komentarz