Darktable 2.0.7
Po wzmożonym ruchu jaki dało się zauważyć ostatnimi czasy w repozytoriach tego projektu, nikt chyba nie miał wątpliwości. To musiało się skończyć kolejnym wydaniem. I ponownie, pomimo tego, że z założenia jest to wydanie naprawcze, użytkownicy doszukają się w nim kilku nowych ciekawostek. Darktable po raz kolejny wyznacza nowe standardy.
Kto by przypuszczał, że ten niepozorny program (na wersję 0.5 trafiłem przez ogromny przypadek jakieś 5 – 6 lat temu) stanie się sztandarowym edytorem plików RAW na Linuksie. Można się sprzeczać, że inne edytory są bardziej funkcjonalne, przejrzyste, wydajne, itp. Każdy oczekuje po prostu czegoś innego. Darktable zawiera w sobie wszystko, czego może potrzebować nawet profesjonalny fotograf. Świetnym dowodem na to jest seria samouczków wideo tworzonych przez Rileya Brandta, fotografa o wybitnie komercyjnym zacięciu. Można oczekiwać i owszem – lepszej obsługi kolekcji, bardziej intuicyjnego interfejsu, ale nie oszukujmy się – pod względem oferowanych możliwości ten edytor jest liderem na scenie linuksowej.
Ale wracając do konkretów dotyczących Darktable 2.0.7 – czego możemy spodziewać się w tej wersji?
- filtrowanie niektórych tagów EXIF w celu utrzymania ich objętości w granicach ~64Kb podczas eksportu,
- wsparcie dla Canon EOS 80D {m,s},
- zawsze widoczny wskaźnik w trybie stołu podświetlanego,
- poprawne czyszczenie geotagów podczas wyświetlania mapy,
- moduł Temperatury i Odwracania: wsparcie wektoryzacji SSE dla plików X-Trans,
- moduł Temperatury: skrót klawiszowy dla gotowych zestawów z ustawieniami.
Nowości
Bez obaw, to dopiero początek. Reszta zmian to poprawki błędów oraz zwiększona baza obsługiwanych aparatów (np. Pentax K-70, Canon 6D, Canon 80D, Nikon 3400, Fujifilm FinePix S100FS) oraz kolejne schematy balansu bieli. Innymi słowy, jeżeli wcześniej Darktable nie obsługiwał Waszego modelu – warto to sprawdzić ponownie.
Aby zainstalować Darktable w Ubuntu 14.04/16.04, Mint 17.xx/18.xx i pochodnych, należy skorzystać z repozytorium PPA:
sudo add-apt-repository ppa:pmjdebruijn/darktable-release
sudo apt-get update
sudo apt-get install darktable
Użytkownicy Manjaro i Arch Linuksa znajdą program w głównym repozytorium:
sudo pacman -S darktable
Nie obsługuje pixel shift resoultion z Pentax K-70.
Poza tym ok.
No niestety – wiodące oprogramowanie pod Win/Mac też sobie z tym nie radzi. Dla szczęśliwych użyszkodników K-1, K-3II i innych aparatów z tą cholernie przydatną opcją jedynym rozwiązaniem na dziś jest program dostarczany wraz z aparatem: nie dość, że dość powolny i niestabilny, to jeszcze tylko pod Windows…
W jakim sensie sobie nie radzą? Pytam bo nie wiem co potrafi robić z takim plikiem fabryczne oprogramowanie.
Ale wiesz, co to jest pixel-shift res?
Jeśli nie wiesz…
‘Normalne’ zdjecie z matrycy z mozajką Bayera (czyli tą najczęściej spotykaną w aparatach) składa się ze zbioru pixeli, z których każdy zarejestrował tylko jeden kolor: 50 procent pixeli rejestruje zielony, po 25 procent – niebieski i czerwony. Takie dane zawiera plik RAW z aparatu. Oprogramoanie do wywoływania RAW dokonuje (między innymi) demozaikowania całości, czyli dla każdego pixela zawierającego fizycznie zapisane dane o tylko jednym kolorze, wylicza ‘prawidłowy’, rzeczywisty kolor na podstawie interpolacji danych z sąsiednich pixeli w innych kolorach. Inaczej mówiąc – każdy wynikowy pixel zawiera 25 procent rzeczywistej informacji o kolorze i 75 procent informacji wygenerowanej przez algorytm.
Technologia Pixel Shift wykonuje 4 zdjęcia, za każdym razem przemieszczając (dzięki systemowi redukcji drgań, pozwalającemu precyzyjnie poruszać sensorem) minimalnie matrycę w ten sposób, że w miejscu, gdzie ‘oryginalnie’ był pixel wrażliwy na zieleń, pojawia się pixel wrażliwy na czerwień, potem – na niebieski, potem zaś – ‘drugi’ zielony. W efekcie, przy założeniu, ze zarówno fotografowany obiekt i jego tło, jak też układ aparat-obiektyw, pozostały nieruchome podczas całego tego procesu, otrzymujemy cztery zbiory danych, które dla każdego ‘miejsca’ obrazu rzutowanego na sensor, zawierają w sumie fizycznie zmierzoną informację o natężeniu trzech kolorów podstawowych, a także bardzo dokladne dane o nateżeniu światła (ważne przy konwersji na cz-b) etc. I teraz dzieje się magia – jeśli te dane odpowiednio wykorzystać, można uzyskać obraz o zwiększonej szczegółowości, lepszym oddaniu przejść tonalnych a nawet nieco zwiększonej rozdzielczości (w sensie wartości funkcji MTF 50).
I to właśnie robi oprogramowanie Pentaxa – stosuje odpowiednie algorytmy umożliwiające ‘złożenie’ czterech ekspozycji w jedno szczegółowe zdjęcie. Dodatkowo może robić też inne rzeczy, na przykład usuwać drobne artefakty w sytuacji, gdy jakieś partie obrazu obiektu nie były jednak do końca nieruchome podczas trwania wszystkich ekspozycji. Dodać przy tym należy, że jest to całkiem inny proces, niż wykonanie czterech ekspozycji ‘normalnym’ aparatem i późniejsze połączenie je w jedno w oprogramowaniu – w tym przypadku także można uzyskać niewielką poprawę jakości, ale wciąż będzie to ‘wyliczanie’ kolorów, choć w oparciu o większą ilość danych.
Na dziś LR, PS i inne wiodące programy z możliwością wołania RAW nie radzą sobie z prawidłową obróbką plików wykonanych za pomocą PixelShift: zdjęć nie daje się wcale wywołać, są wywołane z poważnymi artefaktami, albo wywoływany jest tylko pierwszy zestaw danych, pozostałe trzy zaś ignorowane.
Brawa za wykład 🙂
Czy to takie dyplomatyczne upomniene, żebym powstrzymywał słowotoki vel wodolejstwo? 🙂
Ależ absolutnie. Mądrego to i miło posłuchać (poczytać) 🙂
Ja też dziękuję za tą wiedzę. Zawsze myślałem, że redukcja drgań odbywa się na soczewkach. Ciekaw jestem czy Pentax potrafi robić pixelshift podczas redukcji drgań… Ogólnie majstersztykiem jest dla mnie celowanie tymi pikselami. Wygląda też na to że matryce Pentaxa składają się z takiej samej ilości pikseli R,G i B. Teoretycznie rozdzielczość optyczna (czyli jakość wizualna a nie pikselowa) takiego zdjęcia powinna być trzykrotnie wyższa niż zwykłego. Jeszcze inna kwestia mnie zastanawia, jakość optyki. Czy optyka jest w stanie wyostrzyć na takim pikselu. No i kolejna sprawa to ogólna jakość i szybkość autofocusa. Trudno mi też sobie wyobrazić ciągłą stabilizację obrazu, ciągły autofocus w trybie pixelshift.
Zapewne przesunięcie pikseli następuje w wyłącznie chwili wciśnięcia migawki a więc niestety aparat nie ma ostrości takiej jaką mógłby mieć bo do pomiaru przy autofocusie używa obrazu bez pixelshift… a może się mylę…
Ogólnie bardzo ciekawy patent.
Co nie zmienia faktu , że oprócz DCU (modyfikacja Silkypix) żaden soft pod Linuxem nie obsługuje tego typu plików prawidłowo ? Wynikowy plik jpg z DCU ma wielkość ok. 14 MB (z 24 MP matrycy) ten same dane wejściowe potraktowane Darktable dają jpg o wielkości ok. 8,5 MB co świetnie obrazuje jak wiele jest tracone podczas takiej obróbki…
Redukcja drgań ‘na soczewkach’, czyli w układzie optycznym obiektywu została zaimplementowana przez Canona i Nikona, a także producentów niezależnych (Sigma, Tamron). Pentax (i nie tylko on) zdecydował się na implementację redukcji dgrań poprzez kompensację ruchami matrycy. Oba systemy mają swoje wady i zalety – generalnie, w pierwszych generacjach, redukcja w układzie obiektywu była skuteczniejsza, ale ostatnie implementacje ‘matrycowe’, gdzie stabilizacja odbywa się w 5 osiach (wliczając w to obrót matrycy) są już równie skuteczne. Główną zaletą układu matrycowego jest za to fakt, że każdy podpięty do puszki obiektyw może być stabilizowany, wliczając w to stare manuale bez styków. U Canona i Nikona stabilizowane będą tylko te obiektywy, w których wbudowano system stabilizacji.
Następną zaletą rozwiązania Pentaxa jest fakt, że dysponując zaimplementowaną technologią precyzyjnej kontroli położenia matrycy można stworzyć ciekawe algorytmy rozszerzające za jej pomcą możliwości aparatu – w przypadku najnowszych puszek Pentaxa jest to Astro Tracker i wspomniany Pixel Shift, ale także zdolność aparatu do symulacji działania filtra dolnoprzepustowego, którego ‘fizyczna’ wersja została z matrycy usunięta. Pierwsza funkcjonalność umożliwia kompensację ruchu obrotowego Ziemi (we współpracy z modułem GPS) i wykonywanie długich ekspozycji nocnego nieba ze statywu z zachowaniem punktowej charakterystyki obrazu gwiazd. Druga umożliwia – jak pisałem – uzyskanie zdjęć statycznych scen o podwyższonej rozpiętości tonalnej, szczegółowości i rozdzielczości. Ta technologia ma swoje ograniczenia (tylko statyczne sceny, konieczność pracy ze statywu itp), ale dla fotografów produktów, miłośników kompozycji typu martwa natura oraz (z pewnymi ograniczeniami) lanszafciarzy czy nawet czasem – portrecistów, umiejętne skorzystanie z tej funkcji gwarantuje uzyskanie jakości na poziomie dostępnym w zasadzie cyfrowym aparatom średnioformatowym. Kompensacja filtra AA z kolei pozwala wyeliminować lub ograniczyć efekt mory, aczkolwiek przy nieznacznym spadku rozdzielcziści obrazu – jednak tam, gdzie mora nam nie grozi, wyłączamy symulację i uzyskujemy zdjęcia o około 10 procent ostrzejsze, niż gdyby matryca miała wbudowany na stałe optyczny filtr AA.
Co do reszty – matryce stosowane przez Ricoha w aparatach Pentax to są zwykłe układy z siatką filtrów Bayera, produkcji Sony. W Pentaksie K-3II jest to ta sama matryca, co w Nikonie D7200, w Pentaksie K-1 zaś – ta sama, co w Nikonie D810 (choć zapewne różnią się nieznacznie na poziomie implementacji sprzętu). Oznacza to, że jak każdy Bayer, matryce Pentaxa mają połowę pixeli z filtrem zielonym i po 25 procent dla niebieskiego i czerwonego.
Optyka nie ostrzy ‘na pixelach’. Idealnie powinna ostrzyć na płaszczyźnie, w której powinna znaleźć się matryca. W praktyce, za sprawą zjawiska aberracji sferycznej, płaszczyzna ogniskowania jest zakrzywiona, ma formę wycinka sfery. A ponieważ matryce są płaskie – im dalej od środka matrycy, tym bardziej znajduje się ona poza ogniskiem układu optycznego, co jest jedną z przyczyn (choć nie jedyną) spadku rozdzielczości na brzegach rejestrowanego obrazu.
Autofokus nie jest problemem. Generalnie, układy AF Pentaxa odstają nieco od rozwiązań Canona i Nikona, choć z generacji na generację ich szybkość i skuteczność ulega poprawie. Tak czy inaczej – Pixel Shift jest przewidziany do stosowania w sytuacji, gdy aparat jest ustawiony na statywie a fotografowana scena – statyczna. W tej sytuacji jednokrotne wyostrzenie przed rozpoczęciem serii ekspozycji ‘działa’ dla każdego z czterech ujęć. Stabilizacja, oczywiście, nie działa w tej sytuacji.
Nie pytałem co to jest Pixel Shift tylko co wiecej potrafi pentaksowy program, od przykladowo Darktable w którym plik z K-1 mogę wywołać jak “normalny” DNG.
Chętnie zobaczyłbym róznicę, bo nie mam Windowsa żeby sobie porównać.
Bo “zwiekszoną szczegółowość” zauważam wywołując w Darktable.
Artefakty sie zdarzają, szczególnie jak wieje i statyw się chwieje ale to mogę poprawić już w trakcie pstrykania, na te w trawie nie zwracam uwagi jak niektórzy bo raz że to mało ważny element kadru a dwa nie oglądam zdjęć pod lupą.
Mam kilka ujęć z przemieszczającą się szybko mgłą i po wywołaniu w Darktable nie było “schodków” a widziałem coś takiego z k-3II więc może poprawiono coś w samej k-1. w każdym razie da się normalnie ogadac takie zdjęcia.
A ja z innej beczki. Zainstalowałem sobie najnowsze Kubuntu 16.10.
Fajne, stabilne. Ale jest problem:
Chce zainstalować sobie WPS Kingosfta. Niestety plik deb przy instalacji pokazuje że brak jest zaleźności. Poprzez konsole dowiedziałem się, że brakuje w tym systemie biblioteki libpng12. Wykorzystuje ją Skype i WPS. Ale nie jestem na tyle znający linuxa żeby poradzić sobie z instlacją tej biblioteki. Paczka deb z tą biblioteką nie chce się zainstalować. Są jakieś repozytoria, które mogę dodać by ta biblioteka była do instalacji?
Przepraszam, ale zadałeś pytanie niezbyt precyzyjnie – stąd moja odpowiedź poszerzona o background dotyczący technologii.
Soft firmowy jak mniemam radzi sobie nieco lepiej z artefaktami, niż inne programy obsługujace Pixel Shift. Z tego, co wiem na tę chwilę (aczkolwiek nie wgłębiałem się jeszcze w tę materię, więc nie daję 100 procent gwarancji za poprawność tych informacji), to w przypadku wykrycia różnic na jakimś obszarze zdjęcia w kolejnych ekspozycjach, oprogramowanie Pentaxa jest w stanie ‘zawiesić’ nakładanie danych z kolejnych ekspocycji dla tego obszaru i zastąpić problematyczny fragment ‘tradycyjnie’ wyliczonymi wartościami tylko z jednej, zapewne pierwszej ekspozycji. Oczywiście działa to tylko dla niewielkich różnic, ale na przykład dla rozmytej wody przy ujęciach wodospadów na dłuższych czasach efekt bywa zadowalający – o ile reszta ujęcia pozostaje statyczna. Także w przypadku ruchów liści czy trawy spowodowanej lekkim wiatrem daje się uniknąć artefaktów.
Nie wiem, czy twórcy pozostałych wołarek obsługujących Pixel Shift posiłkowali się metodą reverse engeneering przy opracowywaniu dedykowanych algorytmów, czy też otrzymali niezbędne informacje od Ricoha, ale jeszcze całkiem niedawno najlepsze wizualnie rezultaty przy wołaniu plików uzyskanych z włączonym Pixel Shift dawało oprogramowanie producenta – co oznacza, że ma ono znacznie lepiej zaimplementowaną funkcję Motion Correction:
https://www.dpreview.com/reviews/k1-pixel-shift-resolution-updated-field-test
Z tego co widać na dpreview ACR sobie gorzej radzi, choć czy to akurat aż taka róznica?
Dalej nie wiem jak wygląda DCU w stosunku do Darktable.A może ktoś ma Windowsa i program DCU? Wrzuciłbym gdzieś DNG z Pixel Shift`em zdjęcie z wirującymi wiatrakami tak żeby zobaczyć jak sobie program od Pentaricoha radzi, czy potrafi zrobić z 6 łopat zrobić 3;)
Czy różnica jest istotna? To zależy jak definiujesz ‘akceptowalny’ poziom zdjęcia…
Windę mam na jakim laptopie, ale nie mam w tej chwili możliwości powieszenia softu od Ricoha, więc Ci w eksperymencie nie pomogę. Jednak jeśli chodzi o wirujące wiatraki to… jestem sceptyczny, artefakty raczej pozostaną. No ale – kto wie?
Spróbuj może szczęścia na polskim forum Pentaxa:
http://pentax.org.pl/index.php
A jaki soft oprócz DCU i ACR sobie radzi z Pixel Shift ?
Na dziś wypróbowałem Silkypix 7 i daje on radę , efekty podobne do DCU…
DXO Pro Optic 11 nie obsługuje wcale DNG z K-70 więc nie wiem jaki może dać efekt ?
Czy istnieje jeszcze na świecie jakiś innych soft który obsługuje Pixel Shift ?
Tu udostępniam DNG Pixel Shift Resolution do testów 😉
IMGP0421.DNG
http://www105.zippyshare.com/v/iferDdZU/file.html
A tu jpg (to co “wypluwa” DCU (ustawienie auto WB) )
IMGP0421.jpg
http://www1.zippyshare.com/v/ZPomOQMB/file.html
Jak zainstalować Darktable 2.0.7 lub 2.2.0rc0 na Zorinie?
Zdaje się, że jest to oparte o Debian/Ubuntu – jeśli nie da się dodać tam tych repozytoriów, które w tekście, ewentualnie nie da wykorzystać jakiegoś narzędzia dla Ubuntu, o którym wspominają koledzy tutaj, że można poprzez nie otworzyć nowe wersje programów w starszych *buntu, to Darktable – jak się wydaje – jest również w repozytorium nightly graphics apps flatpaka: http://flatpak.org/apps.html Nie wiem w jakiej wersji, bo nie chce mi się flatpaka instalować tylko po to, by to sprawdzić. Sam flatpak powinno Ci się udać zainstalować, o ile masz tam systemd.
Jeśli to zawiedzie, to – jeśli czujesz się na siłach – możesz zbudować sobie appimage. Wprawdzie dostępne wersje to 2.0.3 i 2.0.4, jednakże “gotowiec” do budowy jest, trzeba go tylko odpowiednio pozmieniać.