- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Külföldi prepaid SIM-ek itthon
- Xiaomi 15T Pro - a téma nincs lezárva
- Vivo X300 Pro – messzebbre lát, mint ameddig bírja
- iPhone topik
- Milyen okostelefont vegyek?
- OnePlus 15 - van plusz energia
- „Új mérce az Android világában” – Kezünkben a Vivo X300 és X300 Pro
- Túl jól fogy az S26, túlóráznia kell a gyártósoroknak
- Mától Huawei okosórákkal is lehet érintésmentesen fizetni
Új hozzászólás Aktív témák
-
nyunyu
félisten
Egyelőre szerintem indulj el, aztán ha már úgy látszik, hogy a táblaméretek növekedésével egyre lassabb, akkor ráérsz optimalizálni.
Akkor már úgyis lesz elég adatod a felhasználói szokásokról, és egyértelműbben kirajzolódik, hol van a szűk keresztmetszet.1% sebességnövelésre nem érdemes napokat elszúrni.
Nekem is volt olyan projektem, ahol engem cseszegettek állandóan, hogy túl sokáig fut nagy ügyfelek esetén az adatmigráció teljességét vizsgáló querym, végül már a DBA guruink optimalizálták, de úgy sem lett sokkal jobb a helyzet, talán 10%-ot tudtak nyerni az indexeléssel és egyéb mágiával.
Legnagyobb telefonelőfizető vállalatot 12 óra alatt tudtuk végigkergetni, ebből 2-3 óra volt az adatkonverzió, és 9-10 az adathelyesség+teljesség ellenőrzés.Aztán projekt végén távoztak a főokosok, akik az adatellenőrző motort fejlesztették, és én örököltem meg a kódjukat a következő projekthez, mondván van már elég gyakorlatom a ellenőrző funkciók írásában.
Sikerült beüzemelni, főnököm elment demózni, hogyan lehet egy mozdulattal megszüntetni 120 ezer előfizetést, aztán 20 perc múlva idegesen telefonál, hogy még mindig nem jött be a következő képernyő.
Végül valami 2 óra volt, mire egy táblában szereplő 120 ezer rekordot sikerült kikeresni pár másik táblából, és a demó alkalmazás továbblépett a következő képernyőre.Kézzel megfuttattam ugyanazt az ellenőrző queryt, 3 perc alatt lefutott.

Na, akkor jobban nekiálltam átnézni az ellenőrzéseket futtató motort, és észrevettem, hogy a kolléga minden rekordra, minden egyes query futtatására kurzort használt, így a tömeges adatellenőrzésre szolgáló query annyi példányban futott libasorban, ahány sor volt a táblában

Plusz megfejelve a dinamikusan összerakott SQL futattatásának a hívásonkénti overheadjével (120e rekordnál az bő egy óra!)Utána egy hétig faragtam az örökölt kódot, mire kiírtottam belőle az összes létező kurzort, hogy az összes query az egész adathalmazra egyben fusson, és egyszer legyen csak dinamikus SQL hívva.
Eredmény? 2 óra helyett 3 perc.Ha visszaportoltam volna az újraírt motort a migrációs projektbe, akkor "kedvenc" nagyvállalatunkat 12 helyett 3 óra alatt le tudtuk volna futtatni, ugyanazokkal az ellenőrző querykkel...
Szóval az optimalizálnivaló nem mindig ott van, mint amire először gondolnál!
Új hozzászólás Aktív témák
- Kötelező frissítésnek számít a Microsoft legújabb csomagja a Windows 11-hez
- Arc Raiders
- Házimozi belépő szinten
- Fejhallgatós találkozó
- Samsung Galaxy Felhasználók OFF topicja
- OLED monitor topic
- sziku69: Fűzzük össze a szavakat :)
- Tea
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Külföldi prepaid SIM-ek itthon
- További aktív témák...
- Eladó/BONTATLAN Lenovo LOQ i7-13650HX 16GB 1TB RTX 4060 8GB
- Bomba ár! HP EliteBook 840 G9 - i7-1270P I 16GB I 512SSD I 14,1" WUXGA I Cam I W11 I Gar!
- Apple iPhone 17 Pro 256GB Deep Blue Újszerű állapot 100% akku (19 ciklus)
- Magyarország piacvezető szoftver webáruháza
- Lenovo L13 G2 Core i5 1135G7 Intel Iris XE 8Gb Ram 256Gb NVMe SSD Boltból Garanciával Számlával
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest


