Alnis Posted March 18, 2011 Report Share Posted March 18, 2011 Man te ir tads projektins, kur useri ievada visadus datus un es paredzu, ka datubaze loti atri izaugs liela. Jautajums ir par to, kaa labak darit vai datus dalit kaut ka vairakas datubazes, jeb visu grust viena datubaze. meginasu paskairot ar piemeru. Pienemsim, ka man ir 100 lietotaji, kas datubāzē ievada katras dienas novērojumus, teiksim novēru laika apstākļus ik pēc 1 minutes diena. Tatad, ja cilveks diena 8 h laika piefikse temperaturu, tad sanak ieraksti 480 diena, to dara 100 lietotaji, kopa ieraksti diena 48000, nedela 336 000, gada ~121 miljons. Paraleli tam useri ik pēc 30 sekundēm poiefiksē savu emocionālo stāvokli, nu tur arī sanāk pat 2 reizes vairakz ierakstu. Dati tiek uzkrāti atseviskas tabulas, kuras vel ir daudzas id colonas no citam tabulam. Tad nu lūk, varbūt ir vērts laika apstākļu moduliti veidot atsevišķi un emocionālo moduliti atsevišķi, katru sava datubaze? Es saprotu, ka piemērs nav pārāk veiksmīgs, bet tomēr. Man ir kādi 6 šitādi atsevišķi projektiņi, kuri protams savā stārpā arī saistās, nav tā ka pilnīgi neatkarīgi. Tad kā to visu darīt, lai būtu viegli uzraudzīt datubāzi, backupot utt.. Paldies. Quote Link to comment Share on other sites More sharing options...
NBS Posted March 18, 2011 Report Share Posted March 18, 2011 Es tavā vietā dalītu dažādās datu bāzēs. Un vēl labāk uz atsevišķām kastēm. Quote Link to comment Share on other sites More sharing options...
Alnis Posted March 18, 2011 Author Report Share Posted March 18, 2011 un pa gadiem ari varbut noskirt, taa lai viena datubaze neuzpusas parak liela? Quote Link to comment Share on other sites More sharing options...
Gints Plivna Posted March 18, 2011 Report Share Posted March 18, 2011 Pāris jautājumi, uz kuriem vismaz pašam sev atbildēt: 1) Tāds "sīkums", kā paredzētā DBVS? Es saprotu, ka vairumam ļaužu visas DBVS ir vienādas, tāpat kā visas mašīnas, piemēram, bet nu reāli tā nav :) Tad, kad izlem kādu DBVS ņemsi, parakā googli un konkrētās DBSV dokumentāciju un paskaties ko tā piedāvā lielu datu apstrādēi, atslēgas vārds šai gadījumā varētu būt partitioning. 2) Kā tos datus izmantos? Jo 121 miojons gada laikā ieraksti neliekas nekas īpašs, es uz savas nīkulīgās mājas kastes ne pārāk platu tabulu varu izveidot ar simts miljons ierakstiem max daždesmit minūšu laikā, svarīgi ir, ko un kā ar tiem datiem darīs pēc tam. Gints Plivna http://datubazes.wordpress.com Quote Link to comment Share on other sites More sharing options...
codez Posted March 18, 2011 Report Share Posted March 18, 2011 Tak izveido 121 miljonu ierakstu db, saliec indeksus un patestē laikus. Ja viss strādā kā vajag, tad kur problēma? Manuprāt, 121 miljons ierakstu vajadzētu strādāt normāli, ja nav kaut kādi mistiski kveriji. Quote Link to comment Share on other sites More sharing options...
Alnis Posted March 18, 2011 Author Report Share Posted March 18, 2011 Man ir Mysql ieraksti nosacīti būs 121 miljons... tikpat labi var būt stipri vairāk. Paldies Gintam, papētīšu mysql partitioning, iespejēms tas ir tas, kas man ir vajadzīgs. Quote Link to comment Share on other sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.