- Samsung Galaxy A54 - türelemjáték
- Motorola Edge 40 - jó bőr
- Apple AirPods Pro (2. generáció) - csiszolt almaságok
- Xiaomi 14T - nem baj, hogy nem Pro
- Okosóra és okoskiegészítő topik
- iPhone topik
- Poco X6 Pro - ötös alá
- Honor Magic5 Pro - kamerák bűvöletében
- Android alkalmazások - szoftver kibeszélő topik
- Samsung Galaxy Watch4 és Watch4 Classic - próbawearzió
Új hozzászólás Aktív témák
-
válasz
martonx #2167 üzenetére
Húha, lehet, hogy én mondtam rosszul, de nem értem, pontosan mire gondolsz.
Azért kellene a REGEXP, mert az ilyen formában várja a stringet: most|ezt|szeretném|megkeresni.
Ha LIKE-ot használok, az a szóközzel nem tud mit kezdeni. Viszont a REGEXP-nél meg tudom azt oldani, hogy a beírt stringben lecserélem a szóközöket | jelekre, és odaadom az SQL lekérdezésnek.De amit írtál, arra alszok egyet. Lehet, hogy az lesz a megoldás, hogy egymásba kell ágyazni az ÉS-eket és a VAGY-okat.
-
eames
tag
válasz
martonx #2140 üzenetére
Pontosítok egy példával:
Egy táblában vannak olyan oszlopok, hogy név, azonosító(kulcs), iroda1, iroda2, iroda3,... iroda n. A személyek nevei és azonosítói mellett pipálva van az adott iroda, ha belépési engedélye van, ha nem léphet be nincs pipa. Ezek az engedélyek változhatnak, és tudni kellene, ki mikor melyik irodába kapott engedélyt. Pl. xy mikor kapott belépést iroda3-ba, de ez nem biztos, hogy az utolsó módosítás mert lehet azóta iroda5 és iroda6-ba is beléphet.
Ebben az esetben hogy nézne ki az sql utasítás?
Nagyon nem erősségem az adatbázis, bocsánat ha nem egyértelmű. -
-
bambano
titán
válasz
martonx #2109 üzenetére
amennyire követtem a dolgokat, normális clusterezési lehetőség csak a 9-es sorozatú pg-kben van, talán 9.3-tól. Azt nem tudom, rendes multimaster clustert lehet-e már építeni, egy master-sok slave cluster most már van.
A 8-as postgresekhez is volt külsős cluster szoftver, anno teszteltünk párat, nevetséges eredményt hozott. például ha session-id-t úgy akartál generálni, hogy volt benne random függvény is, akkor a cluster két darabján nem egyezett a két adat. now() függvény dettó. meg a tárolt procedúrákkal is baj volt.
"szerinted is"? én nem mondtam, hogy az oracle meg az mssql komolyan vehető adatbáziskezelő. az oracle tudását elismerem, de az árazása meg a ora.hu sales tevékenysége nálam több, mint kiütötte a biztosítékot.
a mysql-t nagyon régen teszteltem, lassú is volt, cserébe alap dolgokat sem tudott (ismétlem, a régi verzió), így nem foglalkoztam vele többet. meg amióta az ora felvásárolta, azóta a jövőjét elég ködösen látom.
nekem egy adatbáziskezelő van, ami komoly, a pg. minden hibája ellenére ezzel tudom legjobban megoldani a dolgaimat. (igen, van szubjektív rész is ebben a döntésben)
-
Sk8erPeter
nagyúr
válasz
martonx #2089 üzenetére
"kis tábla méreteknél ez észrevehetetlen, de ha egy táblában van 2-3 ilyen szarul megoldott indexed, és a tábláid több százezer sorosak"
Ha jól emlékszem, az eredeti felvetésben pont az szerepelt, hogy előre tudható, hogy a táblák relatíve kicsik (mit tekintünk egyébként kicsinek?), és sosem lesz bennük többszázezer rekord. Tehát szerintem arról nincs értelme jelen esetben beszélni, hogy "mi lenne, ha", hanem csak arról, ami van, mert pont azért érdekes a kérdés-felvetés, hogy vajon minden esetben helytállóak-e a tankönyvszerű, berögzült gondolatok, vagy van, amikor ettől el lehet térni, ha nem okoz észrevehető különbséget.
Az alapötleten először én is felhördültem magamban, hogy háccccezmicsodadolog, én nem így tanultam, és nem ehhez vagyok hozzászokva, és én amúgy sem így oldanám meg, aztán rájöttem, hogy elképzelhető olyan eset, amikor kicsit rugalmasabban is meg lehet közelíteni a kérdést, ha valakinek adott esetben úgy kényelmes, amennyiben AZ ADOTT ESETBEN (és nem akkor, HA más lenne) nem okozna észrevehető teljesítménybeli romlást. Épp ezért érdekelt, hogy vajon mik lesznek a meglátások ezzel kapcsolatban (még ha én még az adott feladat kedvéért sem így oldanám meg), de sajnos aztán bejött az, amire számítottam, hogy jönnek a tankönyvszerű elvekre hivatkozások (néhol helytelenül, lásd korábban (de)normalizálás fogalmának/elvének nem sok köze van ahhoz, hogy az elsődleges kulcs int vagy string), és a "na de gondolj bele, HA LENNE többtízcsillióbilliókétszáz rekordod"-jellegű megjegyzések, meg a többtízgigarammalnemparaöcsém, és ezek általában csak pont a lényegről terelik el a szót. -
Kommy
veterán
válasz
martonx #2019 üzenetére
Az oké, csak valahogy nem akarja úgy kiadni biztos valamit én rontok el.
Tehát ha összekapcsolom a nevezetteket a kategóriával akkor szépen ki tudom íratni a kategórianevét és látom a versenyző id-ját is, de ha ehhez a lekérdezéshez hozzáadok még egy join-t akkor már nem lesz eredménye a lekérdezésnek. (pedig van olyan id-jű versenyző)
-
DS39
nagyúr
válasz
martonx #1849 üzenetére
teljesen felesleges újra feltalálni a spanyol viaszt. az SQL Server Business Intelligence része egy igen professzionális riportoló eszközt (Reporting Services) tartalmaz.
remek dinamikus (paraméter szerinti) táblázatok, és diagramok készíthetők vele [link]
az email-ben kiküldés kicsit macerás, de ahogy alább linkeltem megoldható.
-
retes
aktív tag
válasz
martonx #1839 üzenetére
Azt próbálom, csak adott közben egy ilyen feladat amit szeretnék megoldani, csak nem tudom, hogy az Access egyáltalán tud e olyat csinálni, hogy mikor indítok egy lekérdezést, akkor feldob egy ablakot, hogy írjam be neki a tól-ig et. Másfelől meg szerintem, az "egy minimális Access tudást illene magadra szedni, mielőtt kérdezel." nagyon kedves és segítőkész hozzáállás. martonx őstagként azt hinném, hogy ezt a látásmódot ezzel a titulussal sikeresen magadra szedted már mióta a PH-ra írogatsz. Látszik, hogy nem sikerült, viszont tedd meg, ha már nem vagy hajlandó segíteni, ne is gátold, hogy más építő jelleggel szóljon hozzá és inkább ne is írj. Köszönöm!
-
bambano
titán
válasz
martonx #1833 üzenetére
de nem akarom a query recordjain végiglépkedni, mert egy query-m van.
van egy táblám, van benne n darab query. ezekből a querykből mindig pontosan egyre van szükségem, sem többre, sem kevesebbre. pontosan egy elemű for ciklust futtatni nem látszik hasznosnak. majd egy másik, későbbi időpontban egy másik queryre van szükségem, de akkor is csak pontosan egyre.(#1834) Ispy
-
Ispy
nagyúr
válasz
martonx #1833 üzenetére
Még mindig nem érted:
olyan utasítást keres, amivel egy táblában található utasítást tud futattni kódból, mssqlben ilyen az sp_executesql függvény, vagy visual basicben az eval függvény. Tehát, ha végiglépked egy forral, akkor a for belsejében kell egy függvény, ami a ciklus által visszaadott értéket tudja nativ kódként értelmezni. -
bambano
titán
válasz
martonx #1831 üzenetére
a probléma a következő: van egy halom mérési eredményem. ebből csinálni kell egy halom grafikont. a grafikon legyártása gyakorlatilag ugyanolyan lépésekből áll, kivéve, hogy az adatsort, amiből lesz, más-más query-k adják. ezért gondoltam arra, hogy a különbözőséget jelentő queryket belerakom egy táblába, a többihez írok egy darab scriptet, aminek egy paramétere, hogy hanyadik query-s grafikont csinálja meg és azt futtatom.
ehhez kellene egy olyan, amit más programozási nyelvekben evalnak szoktak hívni, hogy összerakom valahogy egy stringbe a queryt és azt ugyanúgy feldolgoztatom, mintha simán beírt query lenne.
"Úgy értettem, hogy egy query eredményeként kigenerálsz egy rakás SQL query-t, és ezeket szeretnéd egymás után futtatni programozottan.": mindig egy query lesz az eredmény, azt kell futtatni.
Erre elvileg (postgrestől elvonatkoztatva) két módszer létezhet:
- van készen eval függvény
- tárolt eljárást kell rá írni.A postgresben nincs eval függvény, meg más sem, amire hunyorítva nézve eval függvény lehetne, ezért ez az út járhatatlan.
A postgresnek a tárolt eljárási környezetében van olyan, hogy visszatérési eredményként egy query által generált táblát adok vissza, de ezzel az a probléma, hogy a tárolt eljárás definíciós részében meg kell adni a tábla formátumát, hogy milyen rekordtípust fog visszaadni, az pedig nem egyforma. Így nem tudom a tárolt eljárásban a return query exec-et használni.
-
bambano
titán
válasz
martonx #1829 üzenetére
Három dolgot nem értek a válaszodban:
- függvényt kerestem volna eredetileg, ez meg tárolt procedúrában egy vezérlési szerkezet
- attól, hogy for-ral dolgozom fel a query eredményét, hogyan fog változni a tárolt procedúra által visszaadott adatok típusa?
- miért kellene for-t használnom arra, amire van beépített kész utasítás?tartok tőle, nem ugyanazt értettük a kérdésem alatt.
-
G.A.
aktív tag
válasz
martonx #1671 üzenetére
Üdv!
Próbáltam úgy is, hogy a mezőnevek a CSV első sorában voltam, meg úgy is hogy nélküle.(ha ez a fejléc) Úgy is, hogy ha volt, akkor a feltöltéskor hagyja azt ki. Ezek nem jöttek be. Ami talán fontos és kimaradt, hogy ezt a gépemen lévő wamp-on próbáltam. Ezért kipróbáltam egy online adatbázison is, ott meg feltöltötte.
Ezt nem értem....Ha már sikerült feltöltenem lenne egy másik kérdésem.
Amit sikerült feltöltenem, azokban a magyar szöveget, ahol az ékezetes karakterek kezdődnek, onnantól levágja. Feltöltéskor az utf8-as karakterkészletet választottam, mivel a varchar-os mezők utf8_hungarian_ci-re vannak állítva. Itt mi a hiba?A másik, hogy vannak olyan mezők ahol tizedes számok is vannak. Ha jól tudom ott a mezőt decimálra kell állítani? (értékek pl.: 18.2, 5.5, 7.5, 0.5...)
GA
-
-
Jim-Y
veterán
válasz
martonx #1608 üzenetére
Csak ha nincs az embernek mobilnete?
Én valahol a kettőt ötvözném, alapból egy webszolgáltatás lenne, amit mobilnettel teljes értékűként lehetne használni, de pl lehetne olyat, hogy az ember letöltse lokális adatbázisba az őt érdeklő járatokat, így offline is lehetne követni azokat a járatokat amit az ember használ.. talán..
-
rum-cajsz
őstag
válasz
martonx #1585 üzenetére
Ó, én az Oracle optimalizáló fejlesztőiből bármit ki tudok nézni, annyi minden
"faszsággal"érthetetlen dologgal találkoztam már. Ebbe belefér az is, hogy a joint rosszul (értsd: nagyobb költséggel) értelmezi egyik illetve másik esetben.
De lehet, hogy csak a rosszindulat beszél belőlem, és mostanra már tényleg szép és jó az Oracle join szintaxisokkal. -
cucka
addikt
válasz
martonx #1563 üzenetére
Ez miért előnye a php-nak? Miért más nyelveken mit tárolnak a verziókövetőben? Szerelmes verseket?
Annyi előny, hogy nem kell lefordítani, megszabadulsz a Make/Ant szkriptektől, vagy az xml-ek turkálásától Mavenben, stb. . (Meg persze bizonyos szempontból ez hátrány is, tudom jól, ne akadj fenn ezen)A relációs SQL az egy rohadt nagy halmaz, rengeteg alhalmazzal, amik között halmaz műveleteket tudsz elvégezni rohadtul gyorsan. Hol akarsz ebben fejlődést? Legyenek örökölhetőek, interfészelhetőek a tárolt eljárások?
Ha alkalmazáslogikára szeretnéd használni, akkor szélesebb körű beépített libeket, és igen, több nyelvi eszközt.Ráadásul vicces pont PHP oldalról fanyalogni az SQL nyelv egyszerűsége miatt...
Az egy dolog, hogy a php egy nem túl jól kitalált nyelv, csomó furcsasággal, viszont a beépített eszközkészlete (magyarul a standard lib) igencsak jól használható és jól dokumentált.De hidd el, amikor komoly adatlogikákat kell kivitelezni, és komoly algoritmusokat kell kivitelezni, akkor azt próbáld már meg webszerver oldalon kivitelezni.
Emlékeztetlek, az eredeti hozzászólás a php topikban keletkezett, arra a felvetésre, hogy a php kódba nem kéne egyáltalán sql-t beágyazni/összerakni, hanem minden hasonló feladatot tárolt eljárással kéne megoldani. A php topikban pedig jellemzően nem a szakma krémje szokott kérdéseket feltenni, hanem kezdők.
Szóval igyekezz ennek tükrében értelmezni, amiket írtam. Én is pontosan jól tudom, hogy komplex projekteknél és nagy adatmennyiségnél az adatbázis szerver és kliens közötti kapcsolat overhead-je elszaladhat. Ennek ellenére nem fogom egyik kezdő php fejlesztőnek sem tanácsolni, hogy dobja ki a php-vel legyártott dinamikus sql-t és kezdjen inkább tárolt eljárásokat írni ezek kiváltására. -
válasz
martonx #1542 üzenetére
Igen, már tegnap kiderült, hogy a szerver haldoklott, ezért volt lassú (most villámgyors). Ettől függetlenül még érdekelt a téma, és gondoltam megkérdezem a nálam tapasztaltabbakat, hogy van-e mód tovább gyorsítani az SQL-t. Mint írtam, egy más jellegű problémánál jól fog jönni a file-cache, de az kisebb jelentőségű, mint az első.
Kösz a válaszokat!
-
válasz
martonx #1540 üzenetére
Ok, leírom:
Van 3 táblám: ugyvitel_marka, ugyvitel_termek, ugyvitel_termek_altipus, ugyvitel_termek_tulajdonsag_kapcsolat
ugyvitel_marka: id, markanev; értelemszerűen márkanevek vannak benne, ~250 db.
ugyvitel_termek: id, ugyvitel_marka_id, termeknev: a termékek listája. Egyelőre ~17000 rekorddal.
ugyvitel_termek_altipus: id, ugyvitel_termek_id, ugyvitel_statusz_id, stb.. : termék alkategóriák listája. Szintén ~17000 rek.
ugyvitel_termek_tulajdonsag_kapcsolat: id, ugyvitel_tulajdonsag_id, ugyvitel_termek_altipus_id, tulajdonsag: ez tartalmazza a termékekhez tartozó tulajdonságokat (cikkszám1, cikkszám2, ismertető, stb...). Az ugyvitel_tulajdonsag_id a tulajdonság típusát azonosítja (csz, ismertető, stb.). Jelenleg ~110000 rekorddal.Ezekből kéne leválogatni márkanév, terméknév, csz1, csz2, és ismertető alapján (szabad szavas keresővel).
Az adatbázis tovább fog nőni, akár a többszörösére. MySQL-ről van szó.
-
válasz
martonx #1533 üzenetére
Tisztában vagyok a memcache-sel, de úgy vélem, hogy ennél gyorsabb lenne SQL szerveren belül maradni, hiszen a VIEW már úgy lenne összeállítva, hogy a legoptimálisabb legyen lekérdezés-szempontból. Csak azt tartom "pazarlásnak", hogy minden lekérdezésnél frissíti a tartalmát. Kereséshez van szükségem erre, szóval egy 7*20000 soros táblát kéne a cache-ben tartani. Ez sok...
-
bpx
őstag
válasz
martonx #1529 üzenetére
egyáltalán nincs eltévedve, én nem feltétlenül cache-elnék alkalmazásoldalon (de persze én nem fejlesztő vagyok)
ezt úgy hívják, hogy materialized view [link]
Oracle-ben van, a többi RDBMS-ről nincs tapasztalatom
wiki szerint MS SQL-ben van hasonló, MySQL-ben csak workaround -
Lacces
őstag
válasz
martonx #1473 üzenetére
Lehet, nem tudom, épp ezért kérdeztem, hogy mekkora jó. Én laptopon futatom a linux + java webszervert (Jetty - baromi jó, gyors és keveset eszik ajánlom mindenkinek) + mongot + (jelenleg mysql), de összeségében még nem láttam őket együtt 1GB ram felé menni
Bár úgy vettem észre, hogy nincs nagy különbség Windows Server 2008 + IIS + mongo + mssql ,és a fentebb említett java-s megoldás között hardver zabálásban.
Te így kezdetnek mennyi memóriát mondanál? (mongo + postgresql esetleg egy Win-es megoldásnál?)
-
Lacces
őstag
válasz
martonx #1460 üzenetére
Na, ez már jobban tetszik, amit írsz.
OracleDB-nek az ingyenes része mennyire használható? Mennyire zabálja a hardvert? (Suliban valahányszor az Oracle adatbázishoz nyúltunk csak úgy ette a kliensek memóriáját). Ingyenes MS SQL-ben is gondolkoztam, de a linux integrációról nem olvastam semmi pozitívat.
De az ingyenes OracleDB-vel felkeltetted az érdeklődésemet! -
lakisoft
veterán
válasz
martonx #1460 üzenetére
Nem tudom fejlesztőként vagy üzelemtetőként töltöd a munkaóráidat adatbázisok között?
Beépített függvényekben az Oracle sokkal szerteágazóbb, testreszabhatóbb, részletesebb megoldásokat kínál, míg az MSSQL ebből a szempontból sokkal elnagyoltabb. (Hozzátenném, hogy napi szinten fejlesztek MSSQL2008 alatt.) Pl.: Random függvény Oracle-ben és MSSQL-benUi: Nagyon szeretek T-SQL-ben dolgozni, de tény hogy megvannak a maga korlátai. Ez Oracle-nél is így van de ott "komolyabb"* megoldásokkal lehet találkozni.
*A szakmai szememnek tetszőbb, szakma által jobban elfogadott, konvenció követőbb
-
lakisoft
veterán
válasz
martonx #1457 üzenetére
A MySQL vs. Oracle összehasonlításnak nincs értelme. Nem ugyan arra a piacra készült így nem lehetnek egymás konkorensei. Sokat fejlődött a MySQL mióta az Oracle átvette a Sun-tól.
MSSQL vs. Oracle vs. PostgreSQL ennek az összehasonlításnak talán már több értelme lenne. -
Jeti1
tag
válasz
martonx #1443 üzenetére
Én valami ilyesmit szeretnék, csak az internetről vadászott példában szereplő exe kiterjesztésű fájl helyett egy saját bat kiterjesztésűt akarok futtatni: [link]
A bat fájlom normál módon elindítva megcsinálja, amit kell, viszont SQL Server Agent-tel vezérelve szeretném lefuttatni minden nap egy bizonyos időpontban.A bat fájl windows kötegfájl, ha jól tudom. Ebben az esetben a második pontodban írtaknak megfelelek.
-
Jeti1
tag
válasz
martonx #1420 üzenetére
Minden adatbázis szerver esetén a Management rész alatt létrehozható (varázslóval is) egy úgynevezett Maintenance Plan. Ezt a Maintenance Plant nyílván többféleképpen is el lehet készíteni, s arra lennék kíváncsi, hogy szerinted hogyan kellene, mire mondod azt, hogy ez már egy megfelelő beállítás, mondjuk egy adatbázis mentési terv esetén.
Így most már remélem érthetően sikerült leírnom, hogy mi érdekel.Ezen a videón a Maintenance Plan varázslójával állítanak be egy ütemezett teljes db mentést: [link]
-
Jeti1
tag
válasz
martonx #1418 üzenetére
Köszi! Így azért egyszerűbb volt, mint utána járni a dolgoknak!
Gondolom te használod az SQL Azure technológiát, nem csak ismerkedsz vele, ahogy én.
Ha már te ennyire otthon vagy az adatbázisok, SQL témában, akkor kérdeznék még valamit. Szerinted, hogy néz ki egy elfogadható és egy ideális karbantartási terv adatbázisok esetén?
-
Jeti1
tag
válasz
martonx #1416 üzenetére
1. Az adatbázisok átlagban 4-5 GB-osak és esténként nem dolgoznak rajtuk normál esetben. Ez alapján azt hiszem a NAS jó megoldás lesz mentések tárolásra, a normál adattárolásra pedig több gyors merevlemez, ha ez a verzió valósul meg.
2. Egyetértek veled, de a programozók többségben vannak. Valószínűleg összegyűjtöm majd a különbségeket és oda adom nekik olvasásra, hogy ne hallomások alapján ítéljünk meg egy felhőbeli megoldást.
-
Jeti1
tag
válasz
martonx #1411 üzenetére
1. Hasznos és jó, amit írsz. Két kérdés azonban felmerült bennem. Érdemes lehet odafigyelni arra, hogy a leggyorsabb winchesterekkel legyen felszerelve a gép és a rendszer esetleg SSD-ről működjön? A másik szerverre azért lenne szerinted szükség, hogy az végezze a mentést vagy azon tárolódjanak a mentések? Adattárolásra elég lehet egy NAS is.
2. A felhőszolgáltatás már régebben is eszembe jutott és pont az Azure megoldással foglalkoztam. Szerintem használható lenne, de még mindig sokan félnek tőle, nem tartják elég megbízhatónak... A programozók ráadásul nem rajongtak az ötletért, mert bizonyos dolgokat másként kellene megoldaniuk, mint eddig tették. Több dolgot illetően eltér egymástól az SQL Azure és SQL Server kezelése.
Ha már szóba jött a RAID, van egy nagyon jó oldal, ahol megadhatod a lemezek számát, hogy egy lemez milyen kapacitású és a RAID típusát, az pedig kiírja, hogy mennyi lesz a hasznos terület, az írás-olvasás gyorsaságot és a hibatűrést. A weboldal: RAID Calculator
-
Jeti1
tag
válasz
martonx #1408 üzenetére
Azt hiszem tényleg nem voltam elég konkrét. Nagyjából 15-20 céget kellene kiszolgálni, ahol cégenként kb. 10-15 fővel lehet számolni, s minden cégnek 2-3 adatbázisa lenne. Egy cégen belül nagyjából 4-5 ember csatlakozna egyidejűleg az adatbázishoz. Így már tudsz konkrétabb választ adni?
Ha kell még valamilyen adat, akkor írd meg, aztán leírom. Persze teljesen pontos számokat nem tudok mondani, mert egyelőre még elméletben, a fejemben létezik ez az egész ötlet. Agyalgatok azon, hogy egy központosítás mennyire reális és kb. mennyibe kerülne, mert talán jobban megérné, mint minden egyes mikro vállalkozáshoz, pici céghez kihelyezni egy szervert, s azt konfigurálni.
Természetesen kösi az eddigi válaszod is, mert elgondolkodtatott 1-2 dolgot illetően. -
sztanozs
veterán
válasz
martonx #1386 üzenetére
Igazából az Express beállíta magának alapból egy Instance nevet (nem hagyja defaulton). Nagy cégeknél meg azárt nem használják az instance nevet (vagy inkább nem szokták) - mert álatlában az a policy, hogy egy szerveren egynél több DB instance nem lehet. Inkább virtualizálnak.
-
lakisoft
veterán
válasz
martonx #1380 üzenetére
Van a gépemen.
Microsoft Windows [verziószám: 6.1.7601]
Copyright (c) 2009 Microsoft Corporation. Minden jog fenntartva.
C:\>bcp
usage: bcp {dbtable | query} {in | out | queryout | format} datafile
[-m maxerrors] [-f formatfile] [-e errfile]
[-F firstrow] [-L lastrow] [-b batchsize]
[-n native type] [-c character type] [-w wide character type]
[-N keep non-text native] [-V file format version] [-q quoted identifier]
[-C code page specifier] [-t field terminator] [-r row terminator]
[-i inputfile] [-o outfile] [-a packetsize]
[-S server name] [-U username] [-P password]
[-T trusted connection] [-v version] [-R regional enable]
[-k keep null values] [-E keep identity values]
[-h "load hints"] [-x generate xml format file]
C:\>bcp help
usage: bcp {dbtable | query} {in | out | queryout | format} datafile
[-m maxerrors] [-f formatfile] [-e errfile]
[-F firstrow] [-L lastrow] [-b batchsize]
[-n native type] [-c character type] [-w wide character type]
[-N keep non-text native] [-V file format version] [-q quoted identifier]
[-C code page specifier] [-t field terminator] [-r row terminator]
[-i inputfile] [-o outfile] [-a packetsize]
[-S server name] [-U username] [-P password]
[-T trusted connection] [-v version] [-R regional enable]
[-k keep null values] [-E keep identity values]
[-h "load hints"] [-x generate xml format file]
C:\> -
Apollo17hu
őstag
válasz
martonx #1376 üzenetére
Nincs meg az elméletem hozzá, csak lekérdezéseket írogattunk, arról szinte semmit nem tudok, hogy mi a teendő a MySQL szerver telepítésekor, és hogy mire kell figyelni, milyen kapcsolatokat kell beállítani telepítéskor stb. Erről is szükségem lenne egy emészthető leírásra, ha akad.
-
Sk8erPeter
nagyúr
válasz
martonx #1364 üzenetére
És ez szerinted jó?
Amúgy az Exceles+TXT-s+rendes adatbázisos összekattintgatós móka valóban egyszerűnek tűnik, bár ha normálisan egységesítve vannak a dolgok, akkor elvileg nem lenne szükség TXT-re és Excelre, de nem akarok naiv lenni, tudom, hogy ez soha nincs így.Tehát az a funkciója hasznos lehet.
Amúgy sorolhatnál pár ilyen pénzintézetet (!), ahol az Access a fő alap, tényleg érdekelne.
-
PazsitZ
addikt
válasz
martonx #1364 üzenetére
De azért abban talán megegyezhetünk, hogy többet ér az alapvető sql tudás, mint az access kattingatási tapasztalat.
Mert egy sql-es feltételezem megoldja az access-ben is a feladatot, addig fordítva már talán nem biztos, hogy ennyire triviális a dolog...
Bár lehet tévedek, bevallom, talán egy évtizede nem láttam már access-t -
sanzi89
addikt
válasz
martonx #1317 üzenetére
Értelmes válasz, hmmm.... Kérdésem:
"...SQL lekérdezéssel..."Válaszod:
"...Access grafikus tábla megjelenítőjében jobb gomb..."Van még kérdésed?
@Sk8erPeter
Jó, le kellett volna írom, hogy milyen adatbázis, ebben igazad van, de azért a Te válaszaid se voltak annyira hasznos infók. Szintén, SQL lekérdezés, Delphi-n belül, tök logikus, hogy használjak egy új adatbázis kezelő programot. Leírtam, hogy van benne 2 sor, ami dupla, erre megkérdezed, hogy mindegyik vagy csak 2. Leírom, hogy nincs kulcs, nincs azonosító, minden sor ugyan azt tartalmazza, erre beírod, hogy id szerint töröljek. Csak forgatni tudom a szemem...Egyébként a segítség kérésben igazad van, bocs érte, csak amilyen lekezelően írtad az első kommentedet, arra akartam reagálni.
-
sanzi89
addikt
válasz
martonx #1283 üzenetére
1. Sajna így se volt jó
2. Próbáltam az általad említett verziókat is, de nem működtek. Illetve az én formátumom a programban egyéb helyeken tökéletesen működik, ezért is használom ezt.
3. Delphiben futtatva kapom. Hamarabb találtam megoldást, mintsem ki kellett volna próbálni Access Query-ben@-Zeratul-
Próbáltam a NULL értéket, de nem fogadta el.
Végül a megoldás. Ha felsoroltam az oszlopneveket (egyik DateTime) szintaktikai hiba. Kínomban beírtam, hogy log.DateTime, de ez értelem szerűen szar, de máshol így működött. Végül azt rontottam el, hogy ha elhagyom az oszlopneveket, akkor minden mezőt ki kell tölteni, pont ahogy írtad. Szóval a megoldás valami ilyesmi lett a többi oszlop adataival értelem szerűen:INSERT INTO log VALUES ( {ts '1995-12-31 01:15:15'}, *, *, '**', '**', *, *, **, *, *)
@sztanozs
Én is úgy érzem, hogy csak a szívás van vele. Most megint olyat kapok máshol, hogy a '2012-07-24 10:26:25' nem megfelelő DateTime formátum... Csak akkor tudnám mi az... -
bpx
őstag
válasz
martonx #1272 üzenetére
nem erről van szó, ha van egy varchar(50) típusú mező, az sqlplus-ban 50 karakter széles oszlopként fog megjelenni, akkor is, ha mondjuk csak 10 betű a leghosszabb szöveg, és tele lesz felesleges szóközökkel
a trimmel az adatot lehet csonkolni, nem az outputoterre lehet felső korlátot/formátumot beállítani, pl. 20 alfanumerikus karakter
SQL> column oszlop1 format a20
ekkor ha belefér-belefér, ha nem akkor eltöri és új sorba teszi, de ez a viselkedés is állítható
Yuschenko viszont úgy vettem ki azt szeretné, hogy mindig az aktuálisan megjelenített leghosszabb érték hosszát vegye fel az oszlop - amit meg nem lehet
-
Sk8erPeter
nagyúr
válasz
martonx #1260 üzenetére
Amennyire én értettem, rákényszerítik a Linux-környezetet, amiben használnia kell a meglévő, ósdi fosadék rendszert, ami alapvetően MS-alapú, és jelenleg egyszerűbb hozzátákolni némi plusz PHP-kódot, hogy elérje/módosítsa az adatokat, mint az egészet átültetni egy totál új rendszerbe (új adatbázist használva, új alkalmazást fejlesztve), mivel az új rendszer fejlesztése, a régi lelövése épp túl nagy időbeli és anyagi befektetést igényelne. Nyilván ő sem szívesen választotta ezt a gányolást, de ha ez van, hát akkor ez van... ne oltsd le szegényt azért, mert időszűkében kényszermegoldást választ, valószínű, hogy rövidebb alatt sikerült működő tákolmány megoldást találnia, mint amennyi idő alatt egy új rendszert kialakított volna, tulajdonképpen nem ő a hibás azért, hogy kapott egy szar feladatot, egy gány adatbázist és egy szar alkalmazást.
Feltételezem és remélem, hogy majd áttérnek normális rendszerre.
-
wolandino
tag
válasz
martonx #1260 üzenetére
Mert nem rajtam állt a dolog, és amúgy adva van a Linuxos környezet még pár MS-es egység van, amelyek folyamatosan ki lesznek dobva, csak közben meg kell küzdeni azokkal, akik anno ezeket telepítették, és meg kell értetni velük, hogy az új megoldás legalább azt fogja tudni
A PHP-val amúgy nem tudom mi a baj
-
wolandino
tag
válasz
martonx #1258 üzenetére
kicsit arrogánsnak érzem a stíludod.
Tudod az dobja az első követ aki még nem tévedett.
Ha jól emlékszem pár napja még meg voltál győződve arról, hogy ubuntus környezetben mdb-t nem lehet elérni. Aztán nekem mégis sikerült, ráadásul amit írtál az csak annyiban "igaz", hogy olasz blogon találtam a csomaghoz helyes leírást, de maga a csomag nem "házi olasz tákolmány", ez egy linux csomag, amit lehet húzni. Ha elolvastad volna a linket, akkor tudnád.
Ha meg nem érdekel annyira, akkor meg minek okoskodsz. És nem attól lesz valami gyenge, hogy nem egy szoftver óriás fejleszti. Könnyű fikázni, meg mondani valamire, hogy nem csinálom, meg nem lehet, mert szarok a feltételek, az már egy kicsit nehezebb ha az ember végigküzdi magát az ilyen lehetetlennek tűnő feladatokon és összedobb valami használhatót.
Van egy alkalmazás, ami 12 éves, és van egy másik, amit én csinálok kb egy éve, és az elsőt kellene integrálni a másodikba, ami valóban nem lett túl szépen megvalósítva, de akkor és ott a célnak megfelelt, bár én nem úgy csináltam volna. Most pedig, mivel használatban van, nem lehet kidobni, amíg a másik nincs kész, erre kellene egy átmeneti megoldás, majd utána lehetne kidobni az mdb-t. De tudod a szoftverek vannak az üzletért és nem fordítva. Mondhatom, hogy dobjuk ki, aztán pár hét átállás olyan veszteséget okoz a cégnek, hogy egy főnöknek sem lesz kedve a rendszer konzisztenségét bámulva mosolyogni. -
wolandino
tag
válasz
martonx #1245 üzenetére
Igen, ez egy access adatbázis, de MS ez is.
A neten írnak rá megoldást, de az nem műkszik nekem.
Ha rajtam múlna nem is használnám, de van egy eszközöm, ami ilyet állít elő, és van egy szerverem, ami meg ubuntus környezetben fut,
Ezek konstansok. Max annyit tudok tenni, hogy megpróbálom a wiondowsos gépen elérni az Adatbázist linux alól, de az meg már mind1. -
WolfLenny
senior tag
válasz
martonx #1147 üzenetére
A feldolgozások egymás után történnének. Tehát lesz egy admin aki a bejövő adatokat kezeli és az adatbázisba dolgozza be. Nem egyszerre hanem egyik, majd másik. Lesz kb. 3-4 felhasználó akik ezekről leválogatásokat csinálnak, pl. egy hirdetőre. Nagyon ritka. Mondjuk naponta 1 és 95%-ban különböző időben. De ők pl. a "fő adatbázisban" írni nem fognak, csak onnan adatokat kinyerni ha kell...
Kb. ennyi. Szóval nem lenne erős felhasználás. A fő munka inkább az adatok bevitelénél és az azok után feldolgozásnál lenne sok írás pl. Utána már szinte semmi...
-
WolfLenny
senior tag
válasz
martonx #1143 üzenetére
Egyelőre a vas még kérdéses. A szerver helyben lesz és kizárólag mi fogjuk használni.
Még nincs alatta konkrét vas, ehhez is szeretnék tőletek javaslatot.Bővebben, hogy mi is lesz rajta. Kb. 9 ország adatai dolgozzuk fel. Az egyes országokat külön adatbázisba tervezem. Átlag 1 hónap kb. 100.000 rekord/ország. Azonban van 1-2 nagyobb ország, ahol akár 1-1.5 millió rekord/hó is lehet majd (egyelőre kb. 1 milla a legnagyobb). Az input adatok bekerülnek a táblába, majd utána lekérdezések, szegmentálások (bizonyos mezők kitöltése) fog történni. Amikor eltelik 1 év, akkor "lezárjuk" azaz, nem módosítunk rajta már semmit, azonban bizonyos kimutatásokhoz szükség lesz lekérdezésekre.
Szóval egyelőre kb. 9 adatbázis lenne azokban pedig 3 tábla egyenként max 12-15 millió rekorddal.Ehhez milyen vas kellene? Mi az mi sokat dob a sebességen? HDD, CPU, RAM?
-
Speeedfire
félisten
válasz
martonx #1134 üzenetére
Látom te jobban otthon vagy azért ebben.
Nem próbáltam még egyik ilyen nosql-t sem, csak a mongoDB annyira dicsért lett már, hogy...egy ideje én is nagyon agyalgatok rajta, hogy nekiesek és megnézem mit tud.Az nginx-et csak azért írtam, mert azzal is lehet nyerni valamennyi szerver időt. Még ha csak mp-enként +1 lekérdezést is.
Új hozzászólás Aktív témák
Hirdetés
- Debrecen és környéke adok-veszek-beszélgetek
- sziku69: Fűzzük össze a szavakat :)
- Milyen processzort vegyek?
- gban: Ingyen kellene, de tegnapra
- Azonnali VGA-s kérdések órája
- Eredeti játékok OFF topik
- Kezdő fotósok digitális fényképei
- Samsung Galaxy A54 - türelemjáték
- SSD kibeszélő
- Kerékpárosok, bringások ide!
- További aktív témák...
- DELL Latitude 5520 Intel Core I7-1185G7, 32 GB, 512 SSD MAGYAR VILÁGÍTÓS BILLENTYŰZET!
- SAMSUNG 2TB 990 PRO M.2 NVME PCI-E 4.0 x4 - Új - 7450-6900 MBs - Eladó!
- Samsung 990 EVO Plus 4TB M.2 NVME PCI-E 4.0 x4/5.0 x2 - Új - Eladó!
- Gamer Asztali Számítógép Eladó i5, GTX 1050, SSD + HDD!
- Asus Vivobook 15 X1504ZA-BQ1420 2 hónapos GARIS!
- MacBook felvásárlás!! Macbook, Macbook Air, Macbook Pro
- Új, verhetetlen alaplap sok extrával!
- BESZÁMÍTÁS! MSI B550 R7 5700X 32GB DDR4 500GB SSD RTX 3070 8GB ZALMAN Z1 Plus Be quiet! 650W
- BESZÁMÍTÁS! Microsoft XBOX Series S 512GB játékkonzol garanciával hibátlan működéssel
- Telefon felvásárlás!! iPhone 16/iPhone 16 Plus/iPhone 16 Pro/iPhone 16 Pro Max
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest