- Google Pixel 8 Pro - mestersége(s) az intelligencia
- Samsung Galaxy S23 Ultra - non plus ultra
- Fotók, videók mobillal
- Google Pixel topik
- Felkészült a Redmi 15C
- MIUI / HyperOS topik
- iPhone topik
- Vékonyabb lett, jobb kamerát kapott, de az akku maradt a régi: itt a Fold7
- Android szakmai topik
- Motorola Moto G56 - bátyja árnyékában
Új hozzászólás Aktív témák
-
Beri
addikt
válasz
King Unique #68 üzenetére
Hiteles statisztikát? Pecsétes papírt hozzak a tanács részirül?
Én csak annyit tehetek, hogy ide leírom, amit tapasztaltam. Remélem, a mai tesztekből több marad fenn 25 év múlva. -
King Unique
titán
"de a PC felhasználók körében borzasztó magas volt az usb adattárólók használatának aránya."
Mikor, 25 éve, 2000-ben?
Ugyan már, ez eleve mese és ha nem tudsz mutatni olyan hiteles statisztikát erre vonatkozóan ami alátámasztja, cikkeket és teszteket hogy tömeges probléma volt a CPU erősen limitálta akkor az USB 2.0-s adatátvitelit, akkor az is marad.
Egyébként ha megnézzük itt pl. a prohardveren a nemzetközi kínálatos külső merevlemezes híreket és cikkeket, akkor 2003 körüliek az elsők, de ténylegesen kipróbálni és tesztelni 2006 / 2007 körül kezdték, ami még mindig csak egy szűkebb IT-s réteg és nem az átlagos PC-s felhasználók, utóbbiaknál talán kb. 2008-2010 körül reálisabb. Akkora viszont már bőven nem volt téma az említett "cpu limit".Szóval ha továbbra sem tudsz felmutatni semmit, ami igazolná hogy ez 25 éve tömegeket érintett volna, akkor teljesen felesleges ezt tovább ragozni, naponta írogatni ide az e tekintetben semmitmondó válaszokat.
-
Beri
addikt
válasz
King Unique #66 üzenetére
nem az lett állítva, hogy egyáltalán nem fordulhatott elő olyan soha semmilyen kőkorszaki hardverkonfigurációnál
Nem kőkorszaki, hanem akkor aktuális konfiggal fordult elő.Ha már azt állítod, hogy 25 éve az otthoni PC használata és internetelérés megléte sem volt még tömegesen jellemző, akkor szerinted az USB 2.0-s külső adattárolók használata mennyire?
Az otthoni PC-k száma és az internetpenetráció alacsonyabb volt a maihoz képest, de a PC felhasználók körében borzasztó magas volt az usb adattárólók használatának aránya. A hordozható PATA vinyókeretekhez képest sokkal felhasználóbarátabb megoldás volt, nem kellett minden haverodnak ugyanolyan keretet vennie, mégis mindenkinél tudtad használni a hordozható táradat. MAGIC! -
King Unique
titán
Ha már azt állítod, hogy 25 éve az otthoni PC használata és internetelérés megléte sem volt még tömegesen jellemző, akkor szerinted az USB 2.0-s külső adattárolók használata mennyire? Hát az nyilván még kevésbé, jóformán kb. semennyire, vagy max. csak egy nagyon-nagyon szűk réteg, egy maroknyi kis korai tesztelő játszadozott olyannal, de nyilván nem felhasználók tömegei, pont ezért nem nagyon van miről beszélni.
Tévedésben vagy, mert nem az lett állítva, hogy egyáltalán nem fordulhatott elő olyan soha semmilyen kőkorszaki hardverkonfigurációnál, hanem csak az, hogy nyilván nem tömegesen és ezáltal még hírértéke sem volt ha továbbra sem sikerült semmilyen cikket előkaparni erről, hiszen akkor még nagyon nem volt jellemző az USB-s adattárolók tömeges használata. Mire meg az lett, addigra meg már eleve nem volt téma a mostani.
-
Beri
addikt
válasz
King Unique #55 üzenetére
továbbra sem tudtál felmutatni semmit annak alátámasztására, hogy ezelőtt 25 évvel ez tömeges probléma lett volna
25 éve a pc sem volt "tömeges probléma". Létezett még nyomtatott sajtó ebben a témában, sőt, az volt az elsődleges, mert internetelérése sem volt az emberek túlnyomó többségének errefelé. Egy ilyen korból szeretnél tőlem LINKET valami megbízható forrásra, mert annyira elképzelhetetlen, hogy ha 2007-ben 40% cpu loadot jelentett egy egyszerű usb file transfer, akkor akár csak egy generációval azelőtti cpu-nak ez bagatell lett volna? Akkor még nem 10%-ot gyorsultak a cpu-k generációnként, mint mostanában.
Milyen processzorod volt 25 éve?a 2007-esnél volt majd 40, egészen pontosan 38%-os CPU terhelés
Milyen processzorral? -
A hardver nem tudja. hogy melyik csatornához melyik adatfolyamok tartoznak.
A DVB-S2X kiterjesztés (az S2 továbbfejlesztett változata) már tartalmaz olyan fejlesztéseket, amelyek több vivőhullámos (multi-carrier) működést is hatékonyabban támogatnak. (A S esetében a transpordert használják megnevezésnek és nem a MUX-ot.)A codec csak a képminőségnél számít, az adatátvitelnél közvetlenül nincsen szerepe. A fejlettebb codec-ekkel még kevesebb adatba be tudták paszírozni a videót és több csatornát tudtak egy muxon adni.
Egyetlen mondatba sűrített önellentmondás.
Nyilván a modernebb tömörítés, alacsonyabb sávszélesség mellet képes biztosítani az azonos vagy a jobb képminőséget.Talán pontosítani kellene, hogy melyik évekről beszélgetünk. A beszélgetés elején még a 2010-es évekről volt szó. Később visszacsúszott még egy évtizeddel. Te valamihez képest még 10-12 évvel utalsz vissza. Valamihez képest!
Mivel USB2 adatátvitelről beszéltünk az elején, az én időbehatárolásom a jó. Az USB2 kettőezerben jelent meg. Az első USB2 merevlemez, ha jól emlékszem 2001 végén jelent meg.
Akkor még a Pentium 3 hivatkozásom szerintem teljesen korrekt.
Az első Pentium IV processzor 2000. november 20-án lett bejelentetve. -
azbest
félisten
válasz
Hieronymus #62 üzenetére
Az, hogy van amelyik eszköz támogatja a teljes TS átadást nem jelenti azt, hogy mind támogatja. Alapesetben, hogy a fölösleges adatokat ne küldje át, az eszköznek adott pid lista alapján filterelt adatot ad át, csak egy csatorna adatait. Pont a korai, erőforráshiányos gépek miatt csinálták így. De a lényeg az volt, hogy olyan gépen már ez egyáltalán nem volt nagy feladat.
A "több frekvenciát fognak össze egyetlen adatfolyamba" kapcsán szeirntem csak félreértettél. Természetesen a mux nem csak egy frekvencia, hanem egy sáv, ez nem változott. Általában a frekvencia + 8MHz.
A codec csak a képminőségnél számít, az adatátvitelnél közvetlenül nincsen szerepe. A fejlettebb codec-ekkel még kevesebb adatba be tudták paszírozni a videót és több csatornát tudtak egy muxon adni.
Az egész csak arra volt magyarázat, hogy a modern eszközöd számára ez miért nem volt komoly feladat. A 10-12 évvel korábbi, az usb2 és firewire400 megjelenésekori eszközök tized olyan erősek voltak, ott sokkal nagyobb terhelést jelentett a processzor számára a kommunikáció felügyelete. 486 és pentium 1 procik korában indultak. Az általad emlegetett pentium m az pentium 3 generáció volt már.
-
Neked tudnod kell, hogy a transporder fullstream kerül át az USB eszközből a PC-be. A teljes sream is átírható merevlemezre.Több program is képes rá.
A DVB program választja le a csatornához tartozó adatfolyamokat.
Ma már komplikáltabb, mivel több frekvenciát fognak össze egyetlen adatfolyamba. Ezzel csökkentik a meddő sávszélességet.
Illetve a műholdas SD sok helyen mpeg2 tömörítéssel megy. Ami hatalmas pazarlás a mai h.2xx megoldásokhoz képest.#60 dabadab:
Az első generációs Atom processzorok a Pentium M közvetlen leszármazottai. Megkapták a HT technológiát és megtartották a maximum 3 watt fogyasztási keretet. Egyes szempontokból még a P4 processzoroknál is fejletlenebbek voltak.
Nem rossz a példám.
A későbbi generációk származtak modernebb processzorokból.
A fénykorukat az Intel processzoros táblagépek időszakában élték.
Az Intel adta ingyen a processzort, az MS a Windowst.
A bevezető időszak után beszántották a koncepciót. Az Inteles forgatókönyv szerint, szokásos módon. -
azbest
félisten
válasz
Hieronymus #59 üzenetére
Az a műholdas sd tévé adás talán 1-2 megabites forgalmat generált csatornánként (100-200 kBájt/másodperc). Persze, hogy nem okozott gondot rögzíteni. Egy komplett mux (összes csatorna a frekvencián) volt 5 MB/s körüli.
#60 dabadab na igen, nem mindegy, hogy '95-'96 körüli gépen az sima pentium, majd mmx pentium környékén vagy 12 évvel később egy többszálú, nagyságrendekkel gyorsabb procival kell ugyanazt a feladatot ellátni. Az órajele 8x akkora, de ennél hatékonyabb is lett.
-
dabadab
titán
válasz
Hieronymus #59 üzenetére
Az a CPU a tárgyalt időszak után majd' másfél évtizeddel született, ennek megfelelő vezérlőkkel.
-
Volt Intel Atom N270 processzorral szerelt netbookom. Végkiárusításban aprópénzért adták. Az Acer Linuxot rakott rá, Valami saját gyártmányt. Nem volt jól használható.
XP-vel a korlátai ellenére lehetett használni. Célhardver lett belőle. USB-2 DVB-S2 kártyával kiválóan lehetett rögzíteni. ha nem volt bekapcsolva a megjelenítés.
Mivel a belső meghajtója kicsi volt, a rögzítés USB merevlemezre történt. A másik gépen visszanézésközben át lehetett tekerni a reklámokat.Ez így probléma mentes volt, nem találom életszerűnek a processzor agyonterhelését.
-
azbest
félisten
Az usb a 2.x -ig pollozást használt. Mindig kérdezgetnie kellett a rá kötött dolgokat, hogy ott vagyunk-e már. És kellett központi vezérlés a gép felől a rá kötött eszközök közti kommunikációhoz. Cserében egyszerűbb eszközökhöz nagyon könnyű volt implementálni és olcsó. Az usb half-duplex, egy irányba megy 2.x -ig az adat.
A firewire pont-pont kapcsolatként ment, ezért drágább is volt megvalósítani. Támogatja a DMA, azaz memórián keresztüli közvetlen adatátvitel, amivel a processzor terhelése nélkül képesek az eszközök adatot cserélni. A firewire full-duplex, egyszerre két irányban folyhat az adat.
A háttértárak kezelésénél csináltak UASP (USB Attached SCSI) módot is. Ahol az usb kábelen, megfelelő támogatás esetén máshogy kommunikált. Bár a 3.0-ához hozták be, de van ami 2.x-el is támogatja. A normál usb háttértár kezelés hátrányai kiküszöbölésére hozták létre [link]
Ugyanabban a gépben a firewire jobban ment valsz, mint a sima usb. De az usb jobban elterjedt az olcsó perifériák támogatása miatt.
-
dabadab
titán
válasz
Hieronymus #56 üzenetére
Képtelenség hogy hogy az USB2 adattároló le tudja terhelni a processzort. Az adatbázis kezelő programok sem voltak képesek megterhelni a processzort, a sokkal hatékonyabb SATA buszokon.
Ugye itt pont arról van szó, hogy a SATA hatékony volt (DMA meg ilyenek), az USB2 meg nem, ott a konkrét adatforgalom a processzort terhelte, szóval nem teljesen értem, hogy ez hogy jön ide.
-
válasz
King Unique #55 üzenetére
Képtelenség hogy hogy az USB2 adattároló le tudja terhelni a processzort. Az adatbázis kezelő programok sem voltak képesek megterhelni a processzort, a sokkal hatékonyabb SATA buszokon.
A program és a processzor az adatra várással töltötte az idejét.
Megfelelő méretű RAMDisk esetén fel lehetett olvasni az adatbázist. Szárnyakat kapott a program. Akkor fordulhatott elő memória vagy CPU limit. -
King Unique
titán
Mondjuk kb. evidens kellene legyen az eddig leírtakból, hogy a "nyilván nincs és nem is lesz" értelemszerűen arra értendő, hogy továbbra sem tudtál felmutatni semmit annak alátámasztására, hogy ezelőtt 25 évvel ez tömeges probléma lett volna, felhasználók tömegeit érintette volna IT-s cikkek és statisztikák szerint, meg pláne hogy 2000-ben még nagyon nem volt elterjedt az USB-s adattárolók használta, nemhogy USB 2.0-s külső HDD vagy pendrive nem volt sok mindenkinél, de még USB 2.0 port sem feltétlen minden PC-n.
A linkelt teszteket sem olvastad el rendesen, mert amúgy a 2007-esnél volt majd 40, egészen pontosan 38%-os CPU terhelés, a 2009-esnél meg eleve nem volt téma az a 3-4%.
Egyébként mi van akkor, ha kicsit magasabb a processzorterhelés, talán azzal arányosan kötelezően megnő a műveleti idő, felére vagy negyedére csökken az adatátviteli sebesség? Nem, nem feltétlen, pl. a linkelt 2007-es tesztnél sem volt semmi ilyesmi.
Ide lett screenshotolva egy AI-alapú áttekintés, de ez továbbra sem konkrét teszt ami számokkal szemléltetné, továbbra sem igazolja hogy ez 25 évvel ezelőtt tömegeket érintő probléma lett volna, meg ugye ott van az alján hogy "AI responses may include mistakes".
Egyébként én használtam P4-es 1 magos gépen USB 2.0-s WD My Passportot, de valahogy nem igazán sikerült belefutni ebbe a nagy "CPU limitbe", még ha magasabb is volt valamivel a processzorterhelés, ugyanúgy hozta a szintetikus teszteknél és fájlkezelős fájlmásolásnál is a jellemző 20-35 MB/ közötti értékeket. -
Beri
addikt
válasz
King Unique #52 üzenetére
-
Beri
addikt
válasz
King Unique #51 üzenetére
Van egy kis különbség aközött, hogy "szűk réteg játszadozott akkor ilyen eszközökkel, futott bele némelyikük állítólag ebbe a sokat emlegetett "CPU limitbe"" meg aközött, hogy "nyilván nincs és nem is lesz". Én elhiszem, hogy neked ez nem volt probléma 25 évvel ezelőtt, de a fw borzasztó sokat jelentett a cpu tehermentesítése miatt abban az időben. 2010-re szépen lassan majdnem mindenki elengedte, mert addigra már nem fájt annyira a processzoroknak egy usb transfer.
Csak abba gondolj bele, hogy ha 2009-ben 40% cpu loadot jelentett egy ~30MBps USB transfer, akkor pár évvel korábban mekkora feladat lett volna ugyanaz egy akkori cpu-nak. Emlékezz vissza, akkor még nem 10-15%-ot gyorsultak a processzorok generációról generációra, mint most. A Moore-törvényt sokszor sikerült felülműlni. -
King Unique
titán
"A FireWire-t egyébként főleg az almás cég fejlesztette, de később IEEE 1394 néven szabványosították, így lehetővé vált, hogy más gyártók is licenceljék. Akkora sikert ugyanakkor nem ért el, 2003 körül az Apple is elkezdte lecserélni USB-re, az utolsó Firewire porttal megjelent Mac pedig 2012-ben futott be."
Ennyi, a jelen cikkben is világosan leírják, hogy sose volt a FireWire túl sikeres.
Ha már külső meghajtók, akkor pl. a pendrive-oknál még kevésbé. Voltak ugyan a korai időkben FireWire próbálkozások pl. a Kanguru és pár másik gyártónál is, de ezek megint nem terjedtek el szélesebb körben, az USB eleve ledominálta, utóbbit mellett az eSATA pendrive-ok voltak inkább említésre méltók, de egy idő után azok is kifújtak. Ami annyira nem meglepő, mert ott megint gond volt a kompatibilitással, mivel eSATA port sem minden PC-n volt, az egyportos használathoz (ne kelljen klön USB a tápelltáshoz) adat + tápellátást biztosító Power Over eSATA meg még kevésbé.
-
King Unique
titán
Ami konkrétumok nélkül nem sokat ér, nem véletlenül lett felvetve, hogy akkor pontosan mennyi, meg jó lenne erről valami netes teszt ami pontosan szemlélteti és nem csak bemondásra illetve beírásra higgyük el. Na meg a másik fórumtagra hivatkozás sem világos, amikor a #27-ben elvileg eleve úgy kezdted hogy kipróbáltad, vagy ki tudja azt is hogyan kell érteni, lehet akkor mégsem. Tehát akkor ezek szerint nyilván nem lesz egyik sem, értem.
Ez szimpla mellébeszélés, mert ha én tudtam linkelni 2007 és 2009 környékéről konkrét cikkeket és teszteket, + vannak itt pl.a prohardveren akár még 2005-öek is, akkor ilyen alapon nyilván lehetne találni hasonlókat az említett témákban is, ha valóban említésre méltó lett volna akkor. Ha nem, akkor nyilván nem volt az és max. csak egy nagyon-nagyon szűk réteg játszadozott akkor ilyen eszközökkel, futott bele némelyikük állítólag ebbe a sokat emlegetett "CPU limitbe" ami azóta sem lett kifejtve, de a felhasználók nagy-nagy többségét eleve nem érintette és mire terjedni kezdett az ilyen eszközök használata, pláne nem volt miről beszélni. Tehát egyszerűbb lett volna inkább azt írni, hogy nyilván nincs és nem is lesz.
-
Beri
addikt
válasz
King Unique #48 üzenetére
Erre gondolsz?
"Ami továbbra sem lett számszerűleg kifejtve hogy akkor most 20-35 MB/s helyett 5 MB/s vagy ki tudja hogyan kell érteni ezt a "cpu limites" mantrát, nem lett erről semmilyen hivatalos teszt mellékelve ami konkrétan szemléltetné, nem lett semmilyen olyan cikk linkelve ami taglalná hogy ez ezelőtt 20-25 évvel globálisan felhasználók tömegeit érintette volna, stb."
"Számszerűleg ki lett fejtve", hogy kétszeres, vagy nagyobb különbséget érzékelt a kolléga. Hogy lassan 25 éve ki és milyen teszteket csinált, milyen lapoknál, és abból mi volt online, vagy mi maradt fenn, esetleg mit tartanál megbízható forrásnak, arról nem tudok. Más idők jártak, még cédéket adtak a papíralapú magazinok mellé, mert sokaknak nem hogy korlátlan, de semmilyen internetkapcsolatuk nem volt otthon. De majd ha szembejön erről valami barlangrajz, eskü megosztom veled. Addig is:Hieronymus
az elején nem korlátozódott az USB-re a megfogalmazás
Akkor ez csak egy egyszerű félreértés. Végig usb és fw közötti különbségről volt szó. -
-
Beri
addikt
válasz
Hieronymus #44 üzenetére
A 20+ éves merevlemezek is lassabbak voltak.
A vinyók bőven tudták az usb teoretikus maximum 480Mbitjét már akkor is.Hogyan képes merevlemez meghajtó a processzort leterhelni?
Az usb már csak ilyen. Emlékszel, milyen volt, amikor nem volt aktív a DMA egy meghajtón? Na, olyanKing Unique
Egyik sem igazán kielégítő a legutóbb felvetett kérdésekre.
Kérdések? Hol? -
válasz
King Unique #45 üzenetére
Ezt én értem.
A titkosítás terheli a processzort, főleg a régieket. A felhasználók nagy része nem titkosít. -
King Unique
titán
válasz
Hieronymus #44 üzenetére
Rosszul írtam az előbb, szabad helyett foglalt terület akart az lenni, lehetőség van csak a foglaltat vagy az egészet is kiválasztani a BitLockernél.
Ha csak az előbbi van pl. egy még üres meghajtónál, akkor utána menet közben az új fájlok másolásánál titkosítja azt a lemezterület, ami terhelheti a CPU-t, meg ha régebbi fajta AES-NI támogatás nélkül. Ha a teljes meghajtó titkosítva van, akkor azt utána felcsatolva és feloldva már nincs az előbbi, viszont ott meg jó sokáig eltart mire a teljes meghajtót letitkosítja, mint kb. egy lassú formázás.
-
A 20+ éves merevlemezek is lassabbak voltak.
De nyitott vagyok a megértésre. Hogyan képes merevlemez meghajtó a processzort leterhelni?a szoftveres titkosítás tudja jól megpörgetni a CPU-t, ha pl. szoftveres BitLocker és nem lett az egész meghajtó hanem csak a szabad terület titkosítva, régi CPU és nincsen AES-NI támogatás, stb. Volt is ilyenben részem, de annál sem az volt, hogy valami limitként szarrá lassult és alig lehetett rá másolni, maga a másolás sebessége jó volt végig.
Annak mi az értelme, hogy a nem használt terület titkosított?
A használt területen a van adat.De ennek nincs közvetlen köze. Nem a lemezművelet, hanem a titkosítás kezelése fogja meg a gépet, processzort.
-
King Unique
titán
válasz
Hieronymus #40 üzenetére
Nyilván, az eddig említett sebességértékek is eleve a szekvenciális maximumok, amik nagy méretű fájlokkal végzett műveleteknél értendők, sok apró fájlnál viszont szarrá lassulnak a belső és külső HDD-k. Bár azon a bekapcsolt írási gyorsítótárazás tud javítani, ami Windowsoknál USB-s csatlakozásnál alapértelmezetten ki van kapcsolva, de szükség esetén bekapcsolható.
Egyébként a szoftveres titkosítás tudja jól megpörgetni a CPU-t, ha pl. szoftveres BitLocker és nem lett az egész meghajtó hanem csak a szabad terület titkosítva, régi CPU és nincsen AES-NI támogatás, stb. Volt is ilyenben részem, de annál sem az volt, hogy valami limitként szarrá lassult és alig lehetett rá másolni, maga a másolás sebessége jó volt végig.
Ha hardveres titkosítású külső meghajtó, akkor ott viszont eleve nem téma ez. -
Beri
addikt
válasz
King Unique #39 üzenetére
A kolléga kétszeres, vagy nagyobb kölönbségről beszélt, nyilván cpu-tól függően.
Hieronymus
Nem mai, hanem 20+ éves processzorokról volt szó. -
, csak hogy cpu limites lesz a másolás usb-n.
Nem lesz CPU limites. Limites lesz, de a CPU nem lehet. A másolás alig terheli a processzort. A sok apró fájl másolása vagy a lemez töredezettsége tesz be az adatviteli sebességnek. Nagyon sokszor kell clustert/tracket váltani a fejnek. Az I/O művelet helyett csak a fej mozog. Az egész gép a fájlműveletek elvégzésére vár.
Megnyitsz 15 parancssort és mindegyikben egy nagy fájlt másolsz meghajtón belül. Az egyikben 500 kicsi fájlt másolt.Egy SSD nem fog bele gabalyodni a feladatba. A merevlemezek, még a maiak is megrogynak a feladat súlya alatt.
-
King Unique
titán
Ami továbbra sem lett számszerűleg kifejtve hogy akkor most 20-35 MB/s helyett 5 MB/s vagy ki tudja hogyan kell érteni ezt a "cpu limites" mantrát, nem lett erről semmilyen hivatalos teszt mellékelve ami konkrétan szemléltetné, nem lett semmilyen olyan cikk linkelve ami taglalná hogy ez ezelőtt 20-25 évvel globálisan felhasználók tömegeit érintette volna, stb.
Ellenben én linkeltem konkrétumot, pl. a 2007-es, vagyis 18 évvel ezelőtti prohardveres tesztnél írtak USB 2.0-s adatátvitelnél majd 40%-os (38% pontosan) processzorterhelést egy vélhetően gyenge PC-n, ami viszont a sebességgrafikonon nem igazán látszott, mondhatni a szokásos értékeket hozta, meg nem 5 MB/s volt, hanem 25 - 35/38 MB/s között.
-
Beri
addikt
válasz
King Unique #37 üzenetére
Senki nem mondta, hogy belefagy a gép, csak hogy cpu limites lesz a másolás usb-n. Az meg nem számít, hogy szerinted mi mikor terjedt el, attól még létezett egyszerre lassú cpu és fw.
-
King Unique
titán
Használtam korábban 1 magos Celeron CPU-s ergya PC-ken is USB 2.0-s csatlakozással külső merevlemezeket, de valahogy nem igazán sikerült belefutni X év alatt sem ebbe a nagy "cpu limitbe", meg hogy pl. egy fájlmásolásnál totál leállt, lefagyott volna minden...
A visszatekerünk az időben pl. a 2000-es évek legelejére meg az a gond, hogy akkor még baromira nem volt elterjedt az USB-s külső merevlemezek használata, sőt még a pendrive sem feltétlen, akkor még javában ment a floppy, optikai lemez, belső mobil rack-es egyik PC-ből kihúzom másik PC-be betolom a HDD-t megoldások, stb. Mire elkezdett terjedni, addigra meg már pláne nem volt téma ez a "cpu limitbe".
-
E.Kaufmann
veterán
válasz
fatpingvin #32 üzenetére
Győzzön a nyíltabb
vagy linuxosként nem ezt vallod?
-
Karolac
csendes tag
Ha már ez a téma
Valakinek nem kell egy ADS Technologies gyártmányú, belső tápos, P-ATA / 3 x FireWire csatlakozós külső egység?
Eddig CD hallgatásra (hagyományos helyett) egy Micro-Star gyártmányú Play gombos CD-R/RW játszóval volt használva. -
fatpingvin
addikt
válasz
E.Kaufmann #4 üzenetére
a 1394 az a parallel SCSI funkcióköreinek leváltására is készült.
amúgy hatalmas kár érte, ha nem lett volna gúzsba kötve mindenféle licenszelési rákkal, fényes jövője lehetett volna. Igen sok dolgot tudott még az USB 3.0 előtt amit azóta is kb csak ez a thunderbolt nyavalya. -
Beri
addikt
válasz
King Unique #28 üzenetére
Igen (ahogy korábban ROBOTER is leírta), 2009-ben ez már nem volt téma, de ha visszatekersz az időben, bőven cpu limitbe futottál egy sima másolással. Ha 2007-ben 40% cpu loadot jelentett a másolás, szerinted 5 évvel azelőtt nem koppant ki az egymagos pentium?
-
azbest
félisten
válasz
King Unique #28 üzenetére
Plusz nem csak az adatátviteli sebesség számított. A késleltetés is.
Elvileg nincs lényeges különbség köztük a specifikáció szerint, a gyakorlatban meg a megvalósítás, a driverek és még az oprendszer miatt is volt.Sokáig mac-eket használtak audióra és zenéléshez, mert ott a firewire, driver és os kombóval sokkal jobban működtek. Usb-nél meg pécén a sokféle gyártó, sokféle driver, a hubok minősége és a többi rákötött eszköz driverének minősége miatt lehetett rossz híre, ja meg a win hangkezelése is más.
#22 jerry311
ha nem kritikus, hogy kiesik pár hétre, akkor érthető. Ha mégis kritikus, akkor meg ha ég a ház, majd akkor lesz fontos. -
E.Kaufmann
veterán
válasz
King Unique #28 üzenetére
Szerintem sokan húzták ki pl Ryzen-ekig egy C2Q-val, jó körítéssel azért sokáig használható volt, ha nem a csúcsra hajtott az illető.
A P3 és Core közötti időszak visszanézve teljes zsákutca, amit inkább el akart felejteni a jónép, legalább is intel fronton. Én is örültem, mikor már szabadultunk meg a P4 cerkáktól az irodában, amiket nem én vettem (igaz, voltak más ballépéseim) -
King Unique
titán
Mindkét általam linkelt prohardveres tesztnél eleve volt szó a processzorterhelésről is, pl. ennél a 2007-esnél - azaz eleve régi PC-n nem túl acélos CPU-val - volt nagy eltérés, 40 vs. 2% a FireWire javára, na de attól még nem volt ilyen arányú különbség az adatátviteli sebességnél, max 1,5x-es vagy annyi se (20-40%).
A másiknál - ami szintén nem mai hanem 2009-es teszt - meg látszik, hogy Core 2 Quad CPU-nál az USB 2.0 3.7-3,9%, az eSATA 1.7-2%, a FireWire 400 pedig 1,5-1,6% közötti processzorterhelést produkált a sebességteszteknél. Vagyis itt már eleve nincs akkora különbség mint az előzőnél, sőt szinte kb. elhanyagolható ilyen kicsi értékeknél hiába szám szerint kb. 2x-es.
Tehát már 2009-ben, azaz jó 16 éve sem különösebben volt ez téma, sőt egy gyengébb CPU-nál 2007-ben sem feltétlen, mivel az adatátviteli sebesség messze nem volt annyival alacsonyabb mint amennyivel magasabb a processzorterhelés.
-
Beri
addikt
válasz
King Unique #23 üzenetére
Azt szemléltetted, hogy cpu limit nélkül mit megy a fw az usb-hez képest (random termék, sok évvel később, stb.). A lassabb cpu-k korában ég és föld volt a különbség. Trust me, I tried.
-
King Unique
titán
válasz
Hieronymus #25 üzenetére
Ha az idézett szövegrészben az van leírva, hogy az USB 2.0 jóval szélesebb körben elterjedt mint a FireWire, akkor e tekintetben az USB 2.0 talán nem győzött? Dehogyis nem.
A Thunderboltnál meg ugye főleg azért váltottak USB-C fizikai csatlakozóra, mert különben az is a FireWire sorsára jutott volna, amely utóbbi támogatását ugye már az Apple is kukázza legújabb macOS-ből a jelen cikk szerintAz USB-C egyébként csak a fizikai csatlakozószabvány, lehet mögötte USB 2.0 / 3.2 Gen 1 (USB 3.0), 3.2 Gen 2, 3.2 Gen 2x2, 4, valamint Thunderbolt 3 / 4 és 5 vezérlő is.
-
válasz
King Unique #24 üzenetére
... ha az USB 2.0 interfész jóval szélesebb körben elterjedt el...
Ebben vélhetően az Apple keze is benne van. Az USB miden tekintetben rosszabb volt.
Az USB győzött? Nem.
A FireWire utódja a Thunderbolt lett.
Jelenleg az USB-C, Thunderbolt3/4 támogatás nélkül már nem teljes értékű.
Mára a két fejlesztési vonal teljesen összekapcsolódott, a hardverek felső kategóriájában. -
King Unique
titán
válasz
Hieronymus #20 üzenetére
Sose tudott az USB 2.0 60 MB/s értéket, mivel itt alapesetben 8b/10b kódolás van, azaz 480 Mb/s * 0,8 / 8
—►
48 MB/s elméleti effektív (gyakorlatban kb. 25-3X MB/s körül), nem szimplán 480 Mb/s / 8—►
60 MB/s.Aztán ugye hiába volt valamivel gyorsabb a FireWire 400 és utána a FireWire 800, ha az USB 2.0 interfész jóval szélesebb körben elterjedt a külső adattárolóknál is, ami nem meglepő, mivel a PC-ken is inkább volt USB mint FireWire port, Macet meg eleve csak egy szűkebb réteg használt már akkor is. Az USB 3.0 megjelenésével meg végképp okafogyottá váltak az előbbiek és szépen lassan kikoptak a FireWire interfészes külső merevlemezek és külső házak is. Hasonló sorsa lett volna a Thunderboltnak is, nem véletlenül álltak át a 3-as szabványtól USB-C-re és dobták az 1-es és 2-es szabványnál megszokott USB-vel nem kompatibilis spéci csatlakozót.
-
King Unique
titán
Csak szemléltettem tesztekkel, hogy a 2x gyorsabb állítás eleve túlzás, amik ellenében továbbra sem tudtál felmutatni semmilyen tesztet és sebességmérést, ami igazolná.
Mármint sikerült találni egy ilyen terméket 2001-ből, de ugye vajon ez mikorra terjedt el, pl. hazai szinten mikor lehetett ilyen külső merevlemezeket vásárolni, itt a prohardveren miért 2007 körüliek a legkorábbi cikkek ezekről, stb. Hát talán azért, mert csak évek múlva váltak ezek szélesebb körben elérhetővé, lett egyre divatosabb a használatuk otthoni felhasználói szinten...
-
jerry311
nagyúr
Ha megdöglik, akkor beszerelik az újat. Hosszútávon az esetleges kényszer leállással ez még mindig olcsóbb nekik, mint kidobni egy működő rendszert, és venni helyette egy újat. Ez teljes mértékben pénzügyi döntés.
Mert valami adapterrel, átalakítóval tlaán működik
Eddig volt ősöreg laptop vagy PC firewire porttal (nekem is ven itthon erre a célra két öreg Lenovo), vagy esetleg Windows-os Mac plusz firewire to lightning. Bár az utóbbi időkben eléggé felmentek az ilyen átalakítók árai ebay-en. (nyilván új már ebből sincs évek óta)
-
ROBOTER
addikt
válasz
King Unique #13 üzenetére
Én elhiszem hogy ilyen megcáfolási kényszered van, de nagyon el vagy tájolva az évszámokban.
This (external) HDD supports USB 2.0 and Firewire
Thu 15 Nov 2001 // 16:01 UTCSimpleTech has developed a portable external hard drive which is compatible with USB 2.0 and Firewire (1394b).
Combining the two connectivity technologies on one drive seems to be a first. The product, called the SimpleDrive Deluxe, comes in 6GB, 10GB, 20GB and 30GB capacities, with the entry-level model priced at $200. The product is shipping in the US and will arrive in the UK in three weeks.
SimpleTech acknowledges that customers can get cheaper USB 2.0 storage, but it thinks there are people out there who are into Firewire as well.Megértem, hogy te 2009-ben találkoztál először ilyennel, de én nem. 2003-2004 körül Pentium 4-ek és az akkori Celeronok voltak a középkategóriás asztali gépekben (nem mindenki frissítette 6 havonta a gépét), USB 2.0-val a külső vinyók sokkal lassabbak voltak, mint IEEE 1394-gyel. Aztán jöttek a gyorsabb procik és eltűnt a különbség. Igen, ugyanazzal a külső winyóval.
-
válasz
King Unique #18 üzenetére
Igazad van, akkor már voltak gyorsabb merevlemezek.
A FireWire 400, más néven IEEE 1394 vagy i.LINK, 1995-ben jelent meg mint hivatalos szabvány. Az elméleti maximuma 400 Mbps (azaz 50 MB/s), de a valós adatátviteli sebesség jellemzően 30–40 MB/s körül alakult, a feladattól függően.
Érdemes tudni.
A számjelzés nem generációt, hanem sebesség osztályt jelent. Egyszerre jelentek meg S100, S200 és S400 néven.Az USB2-t 2000. április 27-én adták ki hivatalosan szabványként. elméleti adatátviteli sebessége 480 megabit/másodperc (Mbps), ami körülbelül 60 megabájt/másodperc (MB/s). A valóságban azonban az effektív sebesség ennél alacsonyabb, jellemzően 30–40 MB/s körül alakult.
A FireWire 5 évvel korábban készült mint az USB2. Adatátviteli sebességben mégis veri az USB2-t. Nem duplája, csak némileg gyorsabb.
Nem látok problémát. -
azbest
félisten
addig működik, amíg el nem romlik és akkor majd hirtelen nulláról kell valami teljesen más rendszert szerezni vagy valami régi használt lomot aranyáron, hogy ne kelljen változtatni
De értem ezt. A munkaeszközre a legnehezebb általában pénzt kérni. Főleg kevésbé nyugati régiókban.
Amúgy valsz nem is az a legnagyobb baj, ha a periféria firewire vagy más régi rendszerű cucc. Mert valami adapterrel, átalakítóval tlaán működik - bár megvan a veszélye, hogy nem teljesen úgy, ahogy natívan ment.
Hanem az, hogy újabb oprendszerekre driverek sincsenek. A régi oprendszer meg lehet csak régi vason megy. A régi vas meg ezer éves és bármikor beszarhat. Persze lehet fenntartani pc múzeumot és apróról régi lomokat szerezni donornak. De kell hozzá egy mentalitás, ha valaki erre alapozza a cége teljes működését, egyik napról a másikra bedőlését -
King Unique
titán
válasz
Hieronymus #17 üzenetére
Dehogy voltak ahhoz lassúak azok a háttértárak, már az akkori 2,5" és 3,5" külső merevlemezek is rendszerint eleve gyorsabbak voltak annál mint amit az USB 2.0 és a FireWire 400 lehetővé tett, ezért is volt felüdülés a FireWire 800 és különösen az eSATA és az USB 3.0 interfészek megjelenése a külső meghajtóknál, amely utóbbiak már nem fogták vissza a külső házakban lévő HDD-k sebességét.
-
válasz
King Unique #13 üzenetére
...ami megint nem 2x, hanem a min és max. értékeket párban összevetve kb. 20-40% közötti gyorsulás annál a tesztnél.
Erről nem a FireWire tehetett. A háttértárak voltak lassúak.
A FireWire első generációja már fullduplex volt. Még az USB2 is csak half-ban tolta az adatot.
Még mindig megvan a Sony DV kamerám. Az USB portja 320x20, 25i felbontásban volt képes exportálni a videót. A FireWire porton átjött a 720x576, 25i felvétel. -
jerry311
nagyúr
Nem alapból ezzel szerelik, hanem a 20 éves eszköz még mindig tökéletesen teszi a dolgát. K. drága lenne lecserélni. Na meg ha pont ugyanolyan jól teszi a dolgát, mint 20 éve, akkor elég nehéz meggyőzni a tulajdonost, hogy milliókat költsön egy újabb rendszerre, ami point ugyanazt csinálja, csak modernebb csatlakozóval.
-
.mf
veterán
A Tahoe 26 macOS kinyírja a FireWire-t? Hogy ez mekkora Tahoeság
-
King Unique
titán
Itt a 2009 is már elég régi, jó 15 évvel ezelőtti strory.
Nem világos hogy még attól is 10 évvel korábban pontosan milyen "olyan külső vinyóm" és PC + CPU értendő, amikor a legelső USB-s és FireWire 400 csatlakozós külső merevlemezek is kb 2007 körül jelentek meg, lásd pl. könyvnek álcázott winchesterek cikket. Ahol az USB 2.0 25 - 35 MB/s közötti értékeket tudott, a FireWire 400 meg 35 - 42 MB/s között, ami megint nem 2x, hanem a min és max. értékeket párban összevetve kb. 20-40% közötti gyorsulás annál a tesztnél. -
jerry311
nagyúr
Az szomorú. mint ahogy az is, hogy a mai napig használok firewire-t. Ha egyszer menő volt és a termelőipar használta valamire, akkor az velünk marad évtizedekkel azután is, hogy az átlagfelhasználó már azt sem tudja mi az.
-
ROBOTER
addikt
válasz
King Unique #10 üzenetére
2009 baromira nem az az időszak, amiről beszéltem.
10 évvel korábban jelentek meg a FireWire eszközök, és ahogy írtam, volt egy időszak a kettő között, amikor az USB-vel elérhető sebesség a közelében nem volt. -
King Unique
titán
Külső merevlemezek a Verbatimtól
(2009-04-24)"A tesztelésnél elsőként az 2.0-s USB átvitelre voltunk kíváncsiak. Az mérések a vártaknak megfelelően alakultak, a szokásos USB-s eredményeket kaptuk. A merevlemezeknek olvasásnál sikerült kicsivel 33 MB/s fölé menniük, írásnál is átlépték a 30 MB/s-os határt. A processzorterhelés eközben elég alacsony volt."
"Végül a másik rack FireWire-400 portján keresztül vizsgáltuk az adatátvitel sebességét. Olvasásnál 37 MB/s körüli tempót mértünk, írásnál ennél csak 1-2 MB/s-mal volt lassabb a Verbatim külső merevlemez."
Ennél a tesztnél a FireWire 400-nál ez kb. 15-20% gyorsulás az USB 2.0-hoz képest, nem 2x-es. Az utóbbi a FireWire 800-nál reális, lásd. pl. WD My Passport Studio tesztnél 83 és 73 MB/s olvasás és írás.
-
gliskard
senior tag
Anno egy megváltás volt a külső eszközöknél az SCSI-hez képest a FW a kisebb csatlakozóval és vékonyabb kábellel. A SCSI → FW átalakítóval pedig a SCSI scanner, zip, jaz drive is használható volt a G3, G4 mac-ekben is.
-
ROBOTER
addikt
Volt egy olyan időszak, amikor az USB 2.0 elvi sebességét (480 mbps) megközelíteni sem lehetett, mert a kommunikáció túl nagy része támaszkodott a CPU-ra és a szoftverre. Abban az időszakban volt olyan külső vinyóm, ami egyszerre rendelkezett IEEE 1394 (FireWire) és USB 2.0 porttal. Valamelyik PCI kártyámon vagy alaplapomon volt IEEE 1394 port (még 400-as), leglább dupla sebességgel lehetett fájlokat mozgatni az USB-hez képest. Aztán ahogy gyorsultak a CPU-k, a különbség lecsökkent vagy eltűnt.
-
Alusky
senior tag
Soha nem használtam, talán kütyüm se volt soha amin lett volna.
-
PTM
aktív tag
Firewire?
Now that's a name I haven't heard in a long time. -
Plug Life
senior tag
Én még 2020-ban használtam FireWire 800-as külső lemezegységet 😂
-
JohnyX
tag
válasz
E.Kaufmann #1 üzenetére
Akinek szüksége van rá talál "retro PC-s" alternatívákat (régi laptop, PCI vagy PCI-E kártya) Igaz, hogy az Apple találta ki a csatolót, de én csak DV/HDV kamerán találkoztam vele egyéb eszközön.
-
E.Kaufmann
veterán
Utoljára céges miniDV kamerához használtam, de amióta az olcsóbb mobilok is legalább HD-ban rögzítenk és minőségben a középkategória is már jobb, nem használtam (2015-2016?)
Új hozzászólás Aktív témák
Hirdetés
- Bluetooth hangszórók
- sziku69: Fűzzük össze a szavakat :)
- WLAN, WiFi, vezeték nélküli hálózat
- Mac vagy Windows? Az egér nem ugyanúgy működik… – Tech Percek #17
- Elektromos cigaretta 🔞
- AMD Navi Radeon™ RX 9xxx sorozat
- CASIO órák kedvelők topicja!
- Elkezdtek szállingózni az Arctic P Pro sorozatú ventilátorai
- Kínai és egyéb olcsó órák topikja
- laskr99: Újrakezdem a processzor és videókártya szilícium magok fotózását
- További aktív témák...
- iPhone 12 64GB - fehér Garanciális 2026.01.07
- szinte új HP E24m G4 full HD 1920x1080 IPS monitor- rejtett Webkamera - nagy hangszóró - USB-C
- NEC MultiSync EA275WMi 27" képátló/ AH-IPS panel/2560x1440 (WQHD)/ A- kategória nagyon apró hibával!
- új aktiválatlan iPhone 16 128GB black fekete független 1 év Apple garancia
- szinte új iPhone 16 Pro 256GB black titanium fekete titán független Apple 3 év garancia adapter
- Lenovo Yoga Pro 9 (16IMH9) - Intel Core Ultra 9 185H, RTX 4060, 32GB, érintős ELKELT
- HP Rack szerverek és tartozékok egyben vagy külön-külön
- 13-14" Új és használt laptopok , üzletitől a gamerig , kedvező áron. Garanciával !
- BESZÁMÍTÁS! ASUS TUF Z390-PRO GAMING alaplap garanciával hibátlan működéssel
- Samsung Galaxy S23 Ultra , 8/256 GB , Kártyafüggetlen
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest