Skip to main content

Żeby nie było, że tylko ja narzekam na "specjalistów" z Raiffeisena...


- 2013-05-07T20:42:22+0000 - Updated: 2013-05-07T20:42:22+0000
Żeby nie było, że tylko ja narzekam na "specjalistów" z Raiffeisena...
tak sobie czytam, czekając na rozpatrzenie kolejnej reklamacji.

Krwawa jatka o 43 zł. Klient nie odpuścił i... wygrał. A ...

Shared with: Public
+1'd by: Tomasz ek
- 2013-05-08T08:16:10+0000
Polbank tam się cuda działy. Na szczęście po 4 miesiącach udało się zamknąć konta. Jak się okazuje nawet papiery od tego potrafili zgubić.

KINK... Kerberos and IPSec together. I don't know if I should run away or...


- 2013-05-06T08:08:22+0000 - Updated: 2013-05-06T08:08:22+0000
KINK... Kerberos and IPSec together. I don't know if I should run away or sit jaw-dropped and admire.

Kerberized Internet Negotiation of Keys - Wikipedia, the free encyclopedia

Shared with: Public
+1'd by: Miëtek Bak
- 2013-05-06T12:22:56+0000
If there ever was an appropriate acronym…
- 2013-05-07T15:28:55+0000
two ugly things in one, that's too much for me...

Installing Tanglu ;-)


- 2013-04-29T11:47:12+0000 - Updated: 2013-04-29T11:47:12+0000
Installing Tanglu ;-)
Installing Tanglu ;-)

Installing Tanglu ;-)

Shared with: Your extended circles, Tomasz Torcz
- 2013-04-29T12:40:05+0000
Hurray yet another linux distro.
Is not the RH stick locked to install anything but RHEL let alone yet another debian distro ;)
- 2013-04-29T12:47:26+0000
Tanglu goal is basically Ubuntu with systemd. I'm curious, really. I wouldn't waste perfectly good scratch server with some ancient software.
- 2013-04-29T12:50:13+0000
What's so special about the Ubuntu kernel?
 
- 2013-04-29T16:33:57+0000
Some gód sources, apt-build and we are @home.

CVS is so bad that I seriously question if I <b>want</b> to continue contribu...


- 2013-04-19T12:28:30+0000 - Updated: 2013-04-19T12:28:30+0000
CVS is so bad that I seriously question if I want to continue contributing to #rpmfusion  
Shared with: Public, Russian Fedora
- 2013-04-19T12:42:02+0000
inverse wow :(
- 2013-04-19T12:50:56+0000
Try Perforce, you'll stop whining ;)
(although I must admit that its 3-way merge tool p4merge is pretty good)
- 2013-04-19T14:43:42+0000
Well I guess you could help them migrate to git ;)
- 2013-04-22T17:43:57+0000
Agree. That's why we ( +Russian Fedora ) simply switched to Git :)
- 2013-04-27T21:10:41+0000
Still - it is better than nothing.

„Tajne” centrum przetwarzania danych Nordea Bank.<br>Zdjęcia ze środka:<br><a...


Shared with: Public
- 2013-04-18T19:20:35+0000
To w tym drugim "centrum" też nie ma miejsc parkingowych? :(
- 2013-04-19T05:38:59+0000
Podejrzewam, że tutaj siedzą tylko ludzie od przełączania kabelków i ochrona (groźny pan z tonfą łypał na nas okiem). Więcej niż 4-5 osób pewnie tu nie ma zazwyczaj.
- 2013-04-19T13:28:09+0000
Policz auta a dowiesz się ile osób tam siedzi ;)

Ludzie nie potrafią załatwić najprostszych spraw


Byłem wczoraj w Urzędzie Skarbowym. Czas w kolejce: ok. 1 godziny. Czas w boksie: 1,5 minuty. Przede mną 5 osób, z których żadna nie była w stanie załatwić sprawy bez opóźnień:

  • ludzie nie wiedzą, czego chcą, po co w ogóle do tego urzędu przyszli
  • jeśli wiedzą, to nie mają ze sobą ani wezwania, ani jego numeru, i nie wiadomo pod co ich podpiąć
  • jak się odnajdą, to nie mają ze sobą nawet kawałka pisma przewodniego, z wyjaśnieniem po co składają to, co składają
  • jeśli już na miejscu to pismo stworzą, to nie wpisują swoich danych i muszą uzupełniać
  • jak przynoszą jakieś dokumenty, to bez kopii; urzędniczka marnuje czas na zrobienie ksero

Trudno się potem dziwić, że są kolejki, jak ludzie do wizyty w urzędzie nie potrafią się przygotować. W sumie to takie rzeczy powinny w szkole być uczone.


Archived comments:

Remigiusz 'lRem' Modrzejewski 2013-04-18 17:55:15

Powinny. Powinny też być jasne instrukcje dołączane do wezwań. Nie żeby pierwszą rzeczą którą robię po otrzymaniu takiego było czytanie ustawy...

sprae 2013-04-18 21:22:57

To nie jest wina ludzi. To jakby winić ludzi, że nie potrafią obsługiwać basha.
Jeśli coś jest dla ludzi powinno służyć im pomocą. Dlatego w Wielkiej Brytanii urzędy wdrożyły TQM, a nawet dostały nagrodę za jakość tego wdrożenia.

abec 2013-04-19 17:16:44

jesli US wzywa czlowieka to jeszcze wymaga pisma przewodniego? Jak mu delikwent dostarczy papierek, to niech sie US martwi, zeby trafil on do wlasciwej teczki.

zdz 2013-04-22 19:52:10

Wypadaloby poinformowac, na ktore wezwanie odpowiadasz i jako kto skladasz.
Jak przynosze umowe, to mam sie spodziewac, ze US sprawdzi wszystkie nazwiska z umowy i podepnie pod ktores z nich kwit?

<i>One: Some of the Chinese military hackers who were implicated in a broad s...


- 2013-04-17T08:51:14+0000 - Updated: 2013-04-17T08:51:14+0000
One: Some of the Chinese military hackers who were implicated in a broad set of attacks against the U.S. government and corporations were identified because they accessed Facebook from the same network infrastructure they used to carry out their attacks.

Two: Hector Monsegur, one of the leaders of the LulzSec hacker movement, was identified and arrested last year by the FBI. Although he practiced good computer security and used an anonymous relay service to protect his identity, he slipped up.

And three: Paula Broadwell, who had an affair with CIA director David Petraeus, similarly took extensive precautions to hide her identity. She never logged in to her anonymous e-mail service from her home network. Instead, she used hotel and other public networks when she e-mailed him. The FBI correlated hotel registration data from several different hotels -- and hers was the common name.

Crypto-Gram: April 15, 2013

Shared with: Public
+1'd by: Miëtek Bak

I'm stupid or something, but how to disassociate <b>dm-cache</b> from blo...


- 2013-04-16T11:34:17+0000 - Updated: 2013-04-16T11:34:17+0000
I'm stupid or something, but how to disassociate dm-cache from block device?
Shared with: Your extended circles, Tomasz Torcz
- 2013-04-16T12:38:46+0000
I'm no expert either but dont you just un mount it?
as in umount /dev/mapper/<cache>  then run dmsetup remove ble-cache
- 2013-04-16T12:45:05+0000
After that I cannot mount backstore device (without cache). There is probably some manual cache flush needed, but I can't find any info in documentation.
- 2013-04-16T13:04:04+0000 - Updated: 2013-04-16T13:06:30+0000
This is what I had scribble down in a file in my backup folder not sure how up2date or accurate it is ( note this is something I had gathered and plan test and to wiki-fy at somepoint ...

$ cat dmcache.txt
To create cache

# echo 0 131072 cache /dev/sdc /dev/sdb 0 8 65536 256 1 | dmsetup create mycache

To see cache table

# dmsetup table mycache

To see cache status

# dmsetup status mycache

To suspend cache

# dmsetup suspend mycache

To flush cache

# echo '0 67108864 cache 253:0 253:1 8:0 512 0 cleaner 0' | dmsetup reload mycache

To resume cache

# dmsetup resume mycache

To wait for cache

# dmsetup wait mycache

## echo '0 67108864 cache 253:0 253:1 8:0 512 1 writeback default 4 random_threshold 8 sequential_threshold 512' | dmsetup reload mycache
- 2013-04-16T14:39:19+0000
"cleaner", that was it. Thanks Jóhann!

Więc, często tak sobie benchmarkujesz?


Do tematu wspomagania wolnego dysku mechanicznego szybkim SSD wracam trzy lata później. Celem jest sprawdzenie jak sobie radzi i ile daje dostępne w jądrze linuksa dm-cache.

Co potrzeba?

  • dysk wolny — udział bierze dysk 5400 RPM 160GB
  • dysk na cache, czyli partycja 5GiB na Samsung SSD 830
  • dysk na metadane — partycja 32MiB na powyższym SSD
Pokusiłem się o test real-life. Na wolnym dysku znajdują się obrazy maszyn wirtualnych. W czasie testu w jednej z nich robiona był aktualizacja dwóch pakietów — kernel oraz fedup — oraz usunięcie trzeciego preupgrade. Po aktualizacji cofnięcie tranzakcji. Pomiar wykonany 5 krotnie, skrajne wyniki odrzucone, pozostałe uśrednione. Następnie włączenie cachu na SSD i powtórzenie procedury.

Środowisko:

host: Fedora 18 Spherical Cow z jądrem 3.9.0-0.rc6.git0.1.fc19.x86_64
gość: Fedora 20 Rawhide

Instalacja:
 fedup     noarch      0.7.3-2.fc20               rawhide     67 k
     replacing  preupgrade.noarch 1.1.11-3.fc19
 kernel    x86_64      3.9.0-0.rc6.git0.1.fc20    rawhide     27 M

Pomiar:
% time yum history redo 558 -y
% time yum history undo 558 -y

Decyzje i konfiguracja

Rozdzielenie urządzenia dla metadanych i właściwego cache ma na celu zwiększenie elastyczności rozwiązania. O ile dobór wielkości cache jest prosty (im więcej tym lepiej), to jak z nośnikiem metadanych? Do tego służy następująca reguła:

4MiB + (16bytes * nr_blocks)
A wielkość bloku? To już zależy od charakterystyki obciążenia. Ja przyjąłem “na oko” blok wielkości 64KiB. Przy urządzeniu cache wielkości 5GiB, otrzymujemy porywające zapotrzebowanie 5,25 MiB.

Mamy więc już prawie wszystko: urządzenie do przyspieszenia (sdb), partycję na cache (sda5), partycję na metadane (sda6) i wielkość bloku (64KiB czyli 128 sektorów po 512 bajtów). Potrzebujemy tylko wielkości urządzenia sdb w sektorach:

% blockdev --getsz /dev/sdb 
312581808
Możemy więc utworzyć, zamountować cache i przejść do pomiarów:
% dmsetup create fusiondrive --table '0 312581808 cache /dev/sda6 /dev/sda5 /dev/sdb 128 1 writeback default 0'

% mount /dev/mapper/fusiondrive /var/lib/libvirt/images -o subvol=var_lib_libvirt_images

Wyniki i intepretacja

Zero. Żadnej zauważalnej różnicy. O ile jeszcze procent trafień przy zapisie oscylował w okolicach 4%, to przy odczycie średnia wyszła 0,12%. Czasy sys i user zbliżone - okolice 40s i 50s dla instalacji, w granicach 2,5s dla deinstalacji. Czas real - duży rozrzut, do 83s do ponad 330s. Całkowicie bezużytecznie, nawet nie ma co wykresów robić.

Winny 1 - time yum

Instalacja jądra wydawała się dobrym pomysłem do momentu spojrzenia na wykresy zajętości zasobów przez maszynę wirtualną. Gros czasu obciążenie 100% CPU przy minimalnym użyciu dysku. Powodem było tworzenie obrazu initramfs, a użycie CPU wynika z tworzeni i kompresji pliku cpio. Przydatność do testowania wejścia/wyjścia — żadna. Dodatkowo, yum większość czasu spędzał śpiąc i czekając na procesy potomne wykonujące prawdziwą pracę, w tym czasie nie był mu naliczany czas.

Winny 2 - system plików btrfs

Zarówno dysk sdb, na którym znajduje się obraz maszyny wirtualnej, jak i sama maszyna skonfigurowane są z btrfs. Jest to system plików typu copy-on-write, co oznacza, że dane nigdy nie są nadpisywane. Zapis polega na odczycie danych, zapisaniu zmodyfikowanej kopii gdzieś indziej i uaktualnieniu wskaźników na dysku. Odniesienia do oryginalnej kopii danych znikają (o ile nie ma snapshotów).

Cache działający na poziomie bloków danych nie ma pojęcia, że wrzuca do pamięci podręcznej bloki, do których system plików już nie będzie wracał. Taka już jego uroda, ma ten problem dm-cache, ma go bcache, będzie miał każdy inny. btrfs nie nadaje sie do akceleracji w ten sposób. Dopiero wbudowanie mechanizmów cache SSD w sam btrfs da jakieś sensowne wyniki. Może nawet porównywalne z osiągami ZFS.

W skrócie: benchmarkować to trzeba umieć, panoczku.


Archived comments:

DeHa 2013-04-15 15:19:11

Czyli eksperyment dowiódł, że btrfs jest faktycznie CoW. ;)

zdz 2013-04-15 15:29:57

Mooooo!

LCF 2013-04-15 16:00:35

Huh,

A nie prościej wszystko przemigrować na SSD, zamiast jakieś wynalazki z cachami ?

zdz 2013-04-15 17:00:45

Oczywiście, że łatwiej i za parę lat ekonomicznie to będzie uzasadnione. Na dzień dzisiejszy rozwiązania pamięci hierarchicznej sprzedają się dobrze.

tap 2013-11-25 14:43:31

Zrobiłem teścik bcache - taki organoleptyczny.

Bcache na 2x 120GB SSD (samsung pro i kingston jakiś szybki) w raid1 na linuxowym md + 4x 1TB Segate w raidz1 i na tym zfs.

Bez ssd-ków trzy chodzące równolegle tary powodowały zawał systemu. Load szedł w kosmos, próba zrobienia zfs list kosztowała czasem nawet kilkanaście sekund.

Z bcache 10 chodzących równolegle tarów, load na poziomie 2-3 (8 fizycznych rdzeni HT, więc znikomy), system reponsywny, nadal możliwe było dowalenie jakiejś jeszcze operacji dyskowej. Co ciekawe, 10 tarów wykonało się szybciej (182s) niż 3 tary (270s).

bcache fkoz jako write-back - dlatego na MD, dlatego na dwóch różnych SSD.

zdz 2013-12-18 13:35:31

Przecież ZFS ma natywną obsługę cache na SSD, dlaczego przez bcache?

Poziom „bycia na czasie” polskich uczelni obrazuje całkiem trafnie nowe logo ...


- 2013-04-05T21:22:43+0000 - Updated: 2013-04-05T21:22:43+0000
Poziom „bycia na czasie” polskich uczelni obrazuje całkiem trafnie nowe logo Politechniki Gdańskiej. W ramach „nowoczesności” kształty są pikselowate. A co tymczasem w IT? Od kilku lat upowszechniają się wysokorozdzielcze wyświetlacze, z takim DPI, że pikseli nie widać…
Shared with: Public
- 2013-04-05T21:48:31+0000
Allegro przenioslo sie do biurowca pixel :p

<i>Booting with </i><b><i>32 TBytes memory</i></b><i> hits BUG at mm/page_all...


- 2013-03-19T12:58:16+0000 - Updated: 2013-03-19T12:58:16+0000
Booting with 32 TBytes memory hits BUG at mm/page_alloc.c:552
#linuxproblems  

[bugfix] mm: zone_end_pfn is too small

Shared with: Public
- 2013-03-31T20:15:19+0000
32TiB... sporo tego... gdzie takie maszynki mają?
- 2013-03-31T20:34:49+0000
SGI (Silicon Graphics Inc) takie absurdalnie wielkie serwery robi.
- 2013-03-31T21:10:51+0000
Właściwie to rozumiem... ktoś wyklikał interfejsy dostępu do bazy danych i całość się do RAMu na obiekty zmapowała :D

On average, there is a new <span class="proflinkWrapper"><span class="proflin...


- 2013-03-29T09:55:36+0000 - Updated: 2013-03-29T09:56:50+0000
On average, there is a new +systemd release every 16 days!

Recently I had a gut feeling that the releases oscillate between longer "feature" release, followed by "bugfix" release few days later. Like emulating old odd/even versions - development/stable model. Graph proved my guts were wrong.

Few outliers:
- v12 (40 days) - fstab, crypttab and similar handled in C; lots of other stuff
- v16 (44 days) - mostly bugfixes
- v38 (91 days) - journal
- v183 (70 days) - udev merge
- v197 (48 days) - OnCalendar= in timer units; bootchart merge
- v198 (59 days) - drop-in directories for unit customization
Image
Shared with: Public, systemd
- 2013-03-29T11:43:47+0000
Throwing new release over the wall every 2 1/2 weeks might be a bit too fast I personally would like us to sync it ( along with couple of other coreOS components ) with the kernel release cycle ;)