alb Posted April 24, 2018 Report Share Posted April 24, 2018 Kāds varētu pastāstīt, kādas Jūsuprāt ir tendences? Darbs, izpēte. Quote Link to comment Share on other sites More sharing options...
Wuu Posted April 25, 2018 Report Share Posted April 25, 2018 Šobrīd ir divi pielietojumi (Manas privātas domas) Kompānijām kurām ir milzīgi datu apjomi un kurām gribās kaut ko lietderīgo no šiem datiem iegūt/saprast. Visi pārējie ir simulanti ar +60% precizitāti, pie laba vēja un stabila mitruma koeficienta gaisā. Otrā, computer vision. Ņemot vērā, ka manā īpašuma ir jaunākā Intel RealSense kamera, un tā kamera ir nelietojams sūds. Secinājums, ja pats nebūvē savus sensorus/softu un kameras/softu. Vienīgais ko var izdarīt, ir padzenāt roboto pa istabu, vai vēl kaut kādu nelietderīgu "čerņu". Precizitāte nekāda, informācijas vēl mazāk. Kopumā, lai izveidotu pārdodamu produktu, jāmāk batoni spraust pircējam ausīs. Quote Link to comment Share on other sites More sharing options...
codez Posted April 25, 2018 Report Share Posted April 25, 2018 Ļoti daudzos gadījumos "milzīgi datu apjomi" nav problēma. Piemēram, tu uztaisi kvadrokopteri un negribi programmēta advancētu stabilizācijas algoritmu. Viss, kas tev atliek, ir paņemt sensoru (akselometra, augstuma, gps, utmldz.) datus, regulēt 4 motoru jaudu un pa vidu iebāzt +- loģiski sakonfigurētu neironu tīklu. Un apmācība var sākties, savukārt datu daudzums tev ir neierobežots, jo tie visu laiku tie tiek ģenerēti (nolasīti no sensoriem). Vispārīgās tendences pagaidām ir: 1)interpretācija / saprašana - mēģina no lielas kaudzes datu izvilkt kādu globālāku secinājumu. Novērošana(objektu, sejas, emociju, auto numuru, utt. atpazīšana), medicīna(asins, MRT, CT un citu attēlu analīze un diagnozes noteikšana), interneta reklāmā (kādas un kur reklāmas izvietot), utt. 2)optimizācija - neironi tīkli rada algoritmus, kuri veic kādu procesu optimālāk, nekā līdz šim - finansu instrumentu tirdzniecība, robotu automatizācija (piemēram, tas pats drones stabilizācijas piemērs). Otrais bieži var izmantot jau kāda labi izveidota 1. saprastos datus. Piemēram, veikalā neironu tīkls varētu izmantot kamerās atpazītās cilvēku seju emocijas, lai izvēlētos fona mūziku, kura uzlabotu veikala ienākumus. Quote Link to comment Share on other sites More sharing options...
ieleja Posted April 25, 2018 Report Share Posted April 25, 2018 tas, ka šīs tehnoloģijas kļūst meinstrīmīgas, pierādās arī ar to, ka Windows ML tūlīt būs Windows 10 sastāvdaļa Quote Link to comment Share on other sites More sharing options...
briedis Posted April 26, 2018 Report Share Posted April 26, 2018 Nez, Windows izskatās, ka uzdirst uz to. Ja vien neuztaisa kkādu tizlu nišas produktu sev. Šeit raudam sen un ilgi: https://wpdev.uservoice.com/forums/266908-command-prompt-console-bash-on-ubuntu-on-windo/suggestions/16108045-opencl-cuda-gpu-support Quote Link to comment Share on other sites More sharing options...
alb Posted May 2, 2018 Author Report Share Posted May 2, 2018 (edited) On 4/25/2018 at 12:53 PM, codez said: Ļoti daudzos gadījumos "milzīgi datu apjomi" nav problēma. Piemēram, tu uztaisi kvadrokopteri un negribi programmēta advancētu stabilizācijas algoritmu. Viss, kas tev atliek, ir paņemt sensoru (akselometra, augstuma, gps, utmldz.) datus, regulēt 4 motoru jaudu un pa vidu iebāzt +- loģiski sakonfigurētu neironu tīklu. Un apmācība var sākties, savukārt datu daudzums tev ir neierobežots, jo tie visu laiku tie tiek ģenerēti (nolasīti no sensoriem). Vispārīgās tendences pagaidām ir: 1)interpretācija / saprašana - mēģina no lielas kaudzes datu izvilkt kādu globālāku secinājumu. Novērošana(objektu, sejas, emociju, auto numuru, utt. atpazīšana), medicīna(asins, MRT, CT un citu attēlu analīze un diagnozes noteikšana), interneta reklāmā (kādas un kur reklāmas izvietot), utt. Asinsainai un bioķīmijai jau sen ir izstrādāti automātiski analizatori. Katram parametram novirzes gadījumā ir iespējamo diagnožu sarakstu grupas. Analītika tiek veikta, ņemot vērā parametru kopu un rādījumus tajos. Izvērtējot korelācijas un sūdzības, tiek pielietoti rīcības algoritmi papildus izmeklējumiem. Viss šis bija kas jauns pirms 35 gadiem. GPU cores skaitļošanai tiešām ir perspektīva. Edited May 2, 2018 by alb Quote Link to comment Share on other sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.