- Picit késett, de befutott a Vivo V70 FE is
- Milyen okostelefont vegyek?
- Itt a Galaxy S26 széria: az Ultra fejlődött, a másik kettő alig
- iPhone topik
- Milyen hagyományos (nem okos-) telefont vegyek?
- Poco F8 Pro – titkos favorit lehet belőle
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- 18. helyet ért a Samsung Galaxy S26 Ultra kamerarendszere a DxOMarknál
- Hivatalos a OnePlus 13 startdátuma
- MWC 2026: Kipottyant egy kamera a RugOne hátlapjából
-
Mobilarena

Új hozzászólás Aktív témák
-
szombi
tag
Nos, egy alternatíva már van: kimentettem egy weboldal által küldött gzip-elt tartalmát egy "index.gz" fájlba. Ezt a WinRAR és a 7-Zip is ki tudja bontani. Valami egyszerű megoldás(pl. DLL) érdekelne, hogy a dolog mindkét irányba működjön a memóriában is, a háttértár használata nélkül. Használt már valaki ilyet?
Közben -angol- nyelvű leírást is találtam, kérdés hogy ez aktuális-e:
- [rfc-gzip]
- [http compression - standards] -
szombi
tag
Igen, magam szeretnék. Az LZ77 nem olyan nagy cucc, már leprogramoztam párszor. De ha van gzip-re DLL és jó leírás az is jó lesz nekem. A készülő, amatőr letöltésvezérlőmhöz még szerencsére nem kell, ott a HTTP fejlécből kiszedett infó(pl. cookie-k) mindenre elég lesz. A program már kezeli a cookie-kat, belép az oldalra(név+jelszó), meg ki tud jelentkezni...
-
szombi
tag
Köszönöm, sejtettem hogy ez lesz a vége. Ki az a hülye aki ma tömrítés nélkül kéri le a weblapokat? Úgy néz ki hogy nem úszom meg a compress/deflate/gzip dolgot ilyen könnyen. Valami jó magyar gzip leírást tud valaki? Azt tudom hogy LZ77 (ill. gzip-nél Huffmann kódolás is) az alapja, az LZ77-et információelméleten már megtanultam.
-
szombi
tag
A "Content-encoding résznél is "gzip" áll. Tessék a teljes HTTP fejléc amit kapok:
HTTP/1.1 200 OK
Date: Sun, 29 Dec 2013 22:45:42 GMT
Server: Apache/2.2.26 (FreeBSD) mod_ssl/2.2.26 OpenSSL/0.9.8x
Set-Cookie: PHPSESSID=4d136c24524999c875f49103a18fc78c; path=/
Expires: Thu, 19 Nov 1981 08:52:00 GMT
Cache-Control: public
Pragma: public
Content-Encoding: gzip
Accept-Encoding: compress, gzip
Vary: Accept-Encoding
Connection: close
Transfer-Encoding: chunked
Content-Type: text/html; charset=iso-8859-2' -
szombi
tag
válasz
Lortech
#7586
üzenetére
Ez az "animeaddicts.hu" lesz. Ha "Accept-Encoding: identity" - t adok, akkoris ugyanúgy viselkedik. Tehát a válaszban "Accept-Encoding: compress, gzip" van, de maga a tartalom mégsincs tömörítve. Azt jól tudom hogy az animeaddicts.hu egy napi szinten, jól karbantartott weboldal. Ha esetleg érdekes: "Server: Apache/2.2.26 (FreeBSD) mod_ssl/2.2.26 OpenSSL/0.9.8x"
Most megnéztem az "index.hu" oldalt is. Itt a szabvány szerint működik ez a rész, tehát ha nem adok meg semmit (vagy identity) akkor tömörítés nélkül jön át az oldal, ha "compress, gzip" akkor tömörítve. Pár érdekes formai különbség azért itt akad(chunk+tördelés egyikben, HTTP fejlécben előrejelzett méret a másikban), de a szabványt teljesíti mindkét esetben.
Érdekes hogy alig kezdtem el programozni, máris hibát, szabványtól eltérő működést találok. De tudom hogy nem ilyen egyszerű az élet, ezekre a hibákra nekem kell felkészítenem a programot amit később írni fogok. Vagy beleerőszakolni a gzip-et...
-
szombi
tag
Sziasztok!
Pár hete kezdtem HTTP protokollal foglalkozni. A téma már korábban is érdekelt, az alapok(IP, TCP, portok, DNS hierarchia, programírás) terén sincs okom panaszra. A [HTTP 1.1 szabvány] leírását természetesen olvasgatom ahogy időm telik rá, de eltart ez egy darabig. Sajnos a "reverse-engineering" típusba tartozom, azaz a protokollt előbb próba programokkal tesztelgetem, aztán megnézem a hozzá tartozó szabványt és így tanulom meg a dolgokat. Első HTTP programom 10 perc alatt összeállt, amivel lényegében "bárhová" tudok csatlakozni. Az eredményt (HTTP válasz fejléc és letöltött tartalom) fájlba mentem, de WireShark-on is megnézem.
Most itt akadtam el: ha egy weboldal tartalmát tömörítés nélkül szeretném letölteni, ekkor az "Accept-Encoding" résznél nem adok meg semmit. Érdekes módon a válasz üzenetben mégis ugyanazt HTTP fejlécet kapom, mintha "compress, gzip" értéket adtam volna meg. Maga a (weboldal) tartalom mégis tömörítés nélkül jön át, de megkapja a "chunk"-ot. Tehát hexadecimálisan a tartalom hosszát, utána a (kódolatlan) tartalom, végül a hét bájtos farok (CRLF+"0"+CRLF+CRLF). A WireShark is jelez, hogy "gzip: Decompression Failed" - hát még szép, hiszen nincs is tömörítve! Ha tömörítve (Accept-Encoding: compress, gzip) kérem le az oldalt, akkor gond nélkül átjön, a WireShark is rendesen dekódolja. Csak a gzip-ig még sajnos nem jutottam el így a tartalommal nem tudok mit kezdeni, de külső progit nem akarok ehhez használni.
Szóval a kérdésem: weboldalak átvitelénél a gzip "kizárólagosnak" tekintendő?
Új hozzászólás Aktív témák
● olvasd el a téma összefoglalót!
- Azonnali fáradt gőzös kérdések órája
- Eredeti játékok OFF topik
- Luck Dragon: Asszociációs játék. :)
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Milyen belső merevlemezt vegyek?
- Micro Four Thirds
- Picit késett, de befutott a Vivo V70 FE is
- PlayStation 3
- Motoros topic
- Allegro vélemények - tapasztalatok
- További aktív témák...
- Bomba ár! HP ProBook 450 G8 - i5-1135G7 I 8GB I 256SSD I HDMI I 15,6" FHD I Cam I W11 I Gar
- ÚJ Lenovo LOQ 17IRX10 - 17.3"FHD 165Hz - i7-13650HX - 24GB - 1TB - RTX 5060 - Win11 - 3 év gari - HU
- Honor 400 512GB, Kártyafüggetlen, 1 Év Garanciával
- Apple iMac 21,5" 2015 Late / 8GB DDR3 / 1TB HDD / Bill+Egér 6 hó garancia, számlával!
- BESZÁMÍTÁS! ASRock B450M R5 5600 16GB DDR4 512GB SSD RTX 3070 8GB SilentiumPC Signum SG1 750W
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest



