przystajnik

Monthly Archives: Styczeń 2011

Śladami zapomnianych komend

GDM od wersji 2.28 i rewolucji koncepcyjnej jaką przeszedł, to ekran logowania który uruchamia się w oka mgnieniu i wygląda… koszmarnie. Co więcej, wymaga też od nas sprytu i szeroko pojętej umiejętności tworzenia ‚czegoś z niczego’. No bo jak skonfigurować wygląd bądź co bądź wizytówki systemu, która nie dość, że nie ma własnego konfiguratora, to na dodatek skrzętnie kryje przed użytkownikiem wszelkie możliwości zmiany czegokolwiek. A na to wszystko, ja zawsze zapomnę jakimi czarami trzeba się posługiwać, żeby dorwać się do tych ustawień. To deprymuje…

A receptura dla potomności brzmi: Ażeby przeprowadzić konfigurację nieszczęsnego GDM > 2.28 w stylu ‚GNOME-way’ wystarczy w terminalu wpisać:

xhost +SI:localuser:gdm
gksudo -u gdm dbus-launch gnome-appearance-properties

I pojawi się nam standardowy ekran konfiguracji wyglądu – tapeta, temat, czcionka, itp. Zmieniamy do woli, na tyle na ile jesteśmy w stanie poprawić wygląd – wszystkie zmiany przyniosą skutek dla użytkownika GDM, czyli finalnie ukażą się nam przy próbie logowania do systemu.

Pozostaje sprawa ikonki, która nam wskoczyła w zasobnik – udajemy się do System –> Preferencje –> Technologie wspierające –> Dostępność klawiatury –> i odznacz opcję „przełączanie funkcji dostępności przy użyciu skrótów klawiszowych”.

Dlaczego taki sposób, a nie jedeno z dostępnych GUI do tego? GDM2setup od dawna nie jest aktualizowane, więc nie wiadomo, czy program się rozwija i jakie numery nam w przyszłości wywinie. Konifguracja za pomocą narzędzi systemowych jest w miarę bezpieczna na przyszłość.

Photivo – świątynia suwaków

Tylko patrzeć, jak za jakiś czas Linux zostanie ogłoszony kombajnem do obróbki zdjęć. A to dzięki programom których w 2010 roku był prawdziwy wysyp a istniejące kontynuowały rozwój. Obecnie fotograf-amator (a nawet i pro), ma pod Linuksem do dyspozycji kilka cyfrowych ciemni, różniących się i licencją (komercyjne/GNU), sposobem zarządzania materiałem zdjęciowym (obróbka pojedynczego zdjęcia/import ‚rolki filmu’) i interfejsem. Praktycznie najbardziej wybredny znajdzie coś dla siebie, jedynym kryterium jest moc komputera na którym materiał zdjęciowy jest obrabiany.

Jednym z nowszym projektów jest Photivo, które doczekało się paczki .deb dla Debiana/Ubuntu. Photivo na pierwszy rzut oka przypomina jedną z pierwszych linuksowych ‚wywoływaczek’ RAW’ów, mianowicie Ufraw. Jednak podobieństwa kończą się na układzie interfejsu, bo Photivo zostało napisane z wykorzystaniem bibliotek QT (ale żaden problem używać go w środowisku zdominowanym przez GTK) oraz oprócz opcji ‚szablonowych’ dla wywoływania RAW’a (ekspozycja, balans bieli), posiada całe mnóstwo przeróżnych filtrów i algorytmów graficznych, które swoją różnorodnością mogą praktycznie zastąpić osobny program graficzny (choć to nie jest przeznaczeniem programu).

Główne atuty programu to praca w pełnej przestrzeni 16bitowej na kanał, filtry funkcjonujące w trybie RGB i Lab oraz bezstresowe używanie wielu rdzeni naszych procesorów. A bardziej szczegółowo to:

– 16-bit internal processing, color managed with LCMS2.
– Works with RAWs and Bitmaps (8 bit bitmaps are transformed and processed with 16 bit, which usually gives better results).
– CA correction, Green equilibration, line denoise, badpixel reduction, wavelet denoise, median filters on RAW data.
– Demosaicing: Bilinear, VNG, VNG4, PPG, AHD, DCB, mod. AHD, VCD, LMMSE, AMaZE (needs work!).
– RGB, R, G, B, L*, a*, b*, Texture, Detail, Saturation, L* by Hue, Base curve.
– Tonemapping (Reinhard 05 (RGB Brighten), Fattal et al. (Dynamic range compress)).
– Several local contrast filters (HiRaLoAm (Local contrast), texture contrast, local contrast stretch).
– Sharpen (Edge avoiding wavlets, USM, Highpass, Inverse diffusion, Wiener filter, Gradient sharpen).
– Denoise, seperately on Luminance and Color (Edge avoiding wavlets, GreyCStoration, Wavelet, Masked bilateral, Pyramid).
– Adaptive saturation.
– Film grain simulation.
– Black and white conversion.
– (Split) Toning.
– Cross processing.
– Gradual overlay (like Cokin filters).
– Vignetting.
– Softglow / Orton.
– Batch mode.

Innymi słowy – w programie da się zrobić ze zdjęciem praktycznie wszystko, oprócz retuszu inwazyjnego typu klonowanie, łatka, wycinanie, itp. Niestety ta ogromna funkcjonalność jest okupiona tym, że dla średnio i mało zaawansowanych użytkowników Photivo jawi się niczym monstrum najeżone całym mnóstwem opcji, suwaków i przełączników. Opcji jest dużo, jak nie więcej. Cała filozofia pracy polega zatem na ręcznym precyzyjnym cyzelowaniu fotografii, albo stworzeniu sobie kilku zestawów ustawień. Takie zestawy ustawień można wykorzystać potem do obróbki wsadowej, bądź do aplikowania dla wczytanego zdjęcia.

Istotną cechą programu jest to, że nie jest on przeglądarką plików czy menadżerem zdjęć. To tylko i wyłącznie cyfrowa ciemnia dająca nam do dyspozycji multum filtrów, algorytmów i możliwości realizowania wizji wobec fotografii. Dlatego logicznym jest używanie go wespół z programami typu digiKAM/Shotwell/F-spot/Geeqie/XnView/ a finalny efekt pracy wysyłać do GIMP’a bądź zapisać jako JPG/PNG/TIFF/PPM.

Program w eksperymentalnej wersji dla architektury 64bitowej można pobrać stąd (paczka .deb). Można również ściągnąć wersję dla Windowsa i uruchomić pod WINE – da nam to możliwość ogólnego przetestowania Photivo.

Dobrze jest na początku uruchomić Photivo w terminalu, wtedy wyświetlą się nam jeszcze ew. błędy. Jeżeli ktoś zdecyduje się na paczkę .deb, potrzebna będzie jeszcze biblioteka liblcms2 oraz libexiv2. Paczki te znajdziemy w repozytorium ‚konkurencyjnego’ projektu Darktable. Możemy je dodać do systemu dodając repozytorium:

add-apt-repository ppa:pmjdebruijn/darktable-unstable

… i instalując co należy:

apt-get update
apt-get install liblcms2-2 libexiv2-9

Jak przystało na wersję eksperymentalną, to nie koniec problemów. Photivo wymaga libexiv2-10, a my mamy w systemie wersję libexiv2-9. Dlatego eksperymentalnie rozwiązujemy ten problem za pomocą:

sudo ln -s /usr/lib/libexiv2.so.9 /usr/lib/libexiv2.so.10

I można powiedzieć, że Linux obróbką zdjęć stoi…

Szanujcie swoje kości

Apt-get kończy działanie dramatycznym ‚Segmentation fault’? Tryb graficzny raz się uruchomi, raz nie? Nautilus co jakiś czas się restartuje? Próby nagrania instalki innej dystrybucji na pendrive’a kończą się za każdym razem inną sumą kontrolną na nośniku? Tak, czasem nastaje taki czas, gdy apokalipsa wyziera z każdego kąta naszego monitora…

Co wtedy pozostaje zwykłemu użytkownikowi. Ot, powiesić parę psów i kotów na niestabilnym Ubuntu Maverick, zżymać się na nieefektywny eksperyment o nazwie Mint LMDE, można złorzeczyć każdemu innemu programowi, który postanowił zrzucić okowy i robić coś innego, a najlepiej nic. A Zły Duch naszej maszyny ma się cały czas dobrze i coraz lepiej.

Można też przystąpić do egzorcyzmów pewniej kluczowej części naszych pecetów. A mianowicie kości pamięci. Jakież zdziwienie może pojawić się na naszej twarzy, gdy po wybraniu z menu podczas startu systemu opcji testowania pamięci, po chwili otrzymujemy cały mnóstwo informacji o błędach podczas zapisu/odczytu do pamięci. Jakież można zrobić duże oczy, gdy po wyciągnięciu kości pamięci ze slotów, magicznym duchu w owe, ponownym ich zapięciu, błędy podczas testów znikają. I wszystko ponownie wraca do normy.

Oczywiście nie każdy dysponuje mocą takiego tchnienia uzdrawiającego elektronikę. Czasem może się okazać, że pamięci trzeba po prostu wymienić. A wtedy wszystkie mity o losowym działaniu Ubuntu, niestabilnej Fedorze, czy sypiącym się oprogramowaniu na zakurzoną półkę.

No chyba, że to innych Duch zamieszkał w naszej maszynie…

Linux: Odyseja 2010

Kolejny rok, kolejne nadzieje i marzenia przed i za nami. A co zmienił rok 2010 na naszych biurkowych Linuksach? Jeżeli spojrzeć na główne dystrybucje wyznaczające niepisany standard w rozwoju linuksowych pulpitów, to rok 2010 można określić jako wielki remont (ciągły).

Gruntowny zmiany przeszły wydania Ubuntu (10.04, 10.10) w których zadebiutowały w trybie ‚remontowy’ (tylko fachowcy wiedzą za którą wajchę pociągnąć, żeby zadziałały jak należy) Plymouth, Grub2, GDM3 (aka GDM 2.30). Nowości jak najbardziej są wskazane dla rozwoju, gorzej, że przejście na nowe oznaczało regres czytelności składni i brak graficznych narzędzi do konfiguracji tych komponentów. Zrewidowano również graficzny wygląd całości dystrybucji, choć nieco tandetne może wydać się parcie w stronę wizualnego naśladownictwa systemu Mac OS X. Nowością jest uruchomienie konkretnych usług sygnowanych przez Canonical – takich jak chmura UbuntuOne oraz zintegrowany sklep z muzyką. Pojawił się też nowy menadżer oprogramowania, narzędzie stworzone przez Canonical do propagowania i wspierania twórców także odpłatnych aplikacji dla Linuksa. Rozwiązanie ze wszech miar godne uznania, bo tylko płatne aplikacje będą w stanie jakościowo osiągnąć pułap wymagań bardziej zaawansowanych użytkowników, używających komputera i oprogramowania do swojej pracy. Drugim plusem takiego rozwiązania jest umieszczenie tego wszystkiego w jednym miejscu – odpada konieczność błąkania się po sieci w poszukiwaniu programu.

Pozostałe dystrybucje wypadły na tle ‚rewolucji’ z Ubuntu nieco zachowawczo. OpenSUSE w wersji 11.3 z większych nowości wprowadziło obsługę systemu plików Btrfs oraz SpiderOak jako chmurkę. Mint podjął próbę zaistnienia jako dystrybucja ciągła i obok wydań opartych na Ubuntu (Linux Mint 10), stworzył Linux Mint Debian Edition – wydanie oparte o testowe/niestabilne repozytoria Debiana. Sam Debian 5.0 – jak to Debian, podąża swoją ścieżką rozwoju, która szczerze powiedziawszy dla biurkowego użytkownika tej dystrybucji może okazać się zbyt mozolna. W Fedora 14 (jak przystało na poligon doświadczalny Red Hat’a) pojawiło się sporo nowości, np OpenSCAP (Security Content Automation Protocol) zawierający wiele standardów upraszczających zarządzanie bezpieczeństwem, chmura oparta o usługę Amazon EC2, wirtualizacja biurek przy pomocy SPICE i wiele zmian dedykowanych programistom.

A jakie zmiany zachodziły ‚pod maską’ niemal wszystkich dystrybucji? Kernel z linii 2.6.XX w 2010 roku otrzymał sporo poprawek, funkcjonalności, ale i fali krytyki odnośnie jego wydajności w proporcjach do objętości (im kernel ‚grubszy’, tym bardziej ślamazarny).

Pierwsze w 2010 roku wydanie 2.6.33 wprowadziło nowe, otwarte sterowniki Nouveau dla kart Nvidii oraz porzuciło wsparcie dla Androida. 2.6.34 to z kolei przede wszystkim wsparcie dla nowych systemów plików, Ceph i LogFS. 2.6.35 rozluźniło napięcia na naszych karta sieciowych/radiowych za pomocą nowości RPS (Receive Packet Steering) i RFS (Receive Flow Steering), zwiększających przepustowość przepływu danych i zmniejszając opóźnienia. I w końcu 2.6.36 uwieńczone oficjalnym wprowadzeniem usprawniającego system bezpieczeństwa AppArmor, ograniczającego wykonanie określonych operacji przez aplikacje.

Jednak Linux najwięcej szumu w 2010 roku narobił kontynuując ekspansję się na wszelkiej maści przenośne urządzenia które pojawiały się w sprzedaży.

Zatem, jak widać rok obfitował w sporo zmian, na których oczywiście się jeszcze nie skończyło. Oczywiście, powyższe zestawienie to ledwie naznaczenie faktu przemian, które dotknęły linuksowe biurka, serwery, usługi czy oprogramowanie. W 2011 roku czeka nas starcie z Unity od Canonical, Gnome Shell zadebiutuje w GNOME i pojawią się kolejne rozwiązania, które mam nadzieję tylko poprawią komfort i wydajność pracy na naszych pecetach.

Translate »