Zdravo drugari. Nismo se culi odavno pa cu iskoristiti priliku da vas podsetim da na stranicama elitesecurity foruma trune I skuplja prasinu I paucinu najznacajniji noviji softverski pronalazak: kompresija random-like podataka.
Ipak sam sam kriv napravio sam mnogo gresaka prilikom prezentovanja ove ideje pa cu se potruditi da ih ovim putem ispravim. Najznacajniju gresku sam napravio prilikom objasnjenja zapisivanja kompresovanog fajla. Tada sam tvrdio da drugi deo kompresovanog fajla odnosno duzinu onog “praznog” fajla treba zapisati uz pomoc Kilo, Mega , Giga, Tera bita. Presao sam se. Drugi deo kompresovanog fajla treba zapisati kao zbir eksponenata celih brojeva I ostaviti da se tacna vrednost istog izracunava tek prilikom dekompresije. Da podsetim: to je zapis 2^8000 (koji zauzima 48 bita u memoriji) umesto 2500 cifara (koji zauzimaju 20000 bita u memoriji) tj mnogo manje I od 8000 (duzina originalnog fajla- primer sa fajlom od ~1Kb) bita u odnosu na koje se racuna kompresija. 48 bita u odnosu na 8000 je znacajna usteda.
Naravno postavlja se pitanje sta sa fajlovima na pozicijama izmedju 2^7999 I 2^8000 kojih takodje ima izuzetno mnogo. Moj predlog je da se koriste eksponenti I drugih brojeva osim 2 koji ce u zbiru davati trazeni broj.
Takodje se postavlja pitanje kako odrediti eksponente koji ce davati trazeni broj. To vec ne znam, ja sam kontao nesto sa korenovanjem pa trazenjem najpribliznijih celobrojnih vrednosti ali za to bi mi verovatno rekli da je nemoguce ili da je vremenski neefikasno pa cu ovo pitanje ostaviti pametnijima od mene.
Sve u svemu kako ovo nije jedina greska koju sam napravio posle mnogo premisljanja odlucio sam se da pokrenem novu temu: “Kompresija random-like podataka” u kojoj cu na mnogo precizniji nacin izneti kako sam zamislio ovu kompresiju I nadam se oslobodjenu gresaka. Pozivam vas da ucestvujete.
Nemoj da pricas?