Jump to content
php.lv forumi
Sign in to follow this  
alb

Neironu tīkli

Recommended Posts

Kāds varētu pastāstīt, kādas Jūsuprāt ir tendences? Darbs, izpēte. 

 

Share this post


Link to post
Share on other sites

Šobrīd ir divi pielietojumi (Manas privātas domas)

Kompānijām kurām ir milzīgi datu apjomi un kurām gribās kaut ko lietderīgo no šiem datiem iegūt/saprast. Visi pārējie ir simulanti ar +60% precizitāti, pie laba vēja un stabila mitruma koeficienta gaisā.

Otrā, computer vision. Ņemot vērā, ka manā īpašuma ir jaunākā Intel RealSense kamera, un tā kamera ir nelietojams sūds. Secinājums, ja pats nebūvē savus sensorus/softu un kameras/softu. Vienīgais ko var izdarīt, ir padzenāt roboto pa istabu, vai vēl kaut kādu nelietderīgu "čerņu". Precizitāte nekāda, informācijas vēl mazāk.

Kopumā, lai izveidotu pārdodamu produktu, jāmāk batoni spraust pircējam ausīs.

 

 

Share this post


Link to post
Share on other sites

Ļoti daudzos gadījumos "milzīgi datu apjomi" nav problēma.
Piemēram, tu uztaisi kvadrokopteri un negribi programmēta advancētu stabilizācijas algoritmu. Viss, kas tev atliek, ir paņemt sensoru (akselometra, augstuma, gps, utmldz.) datus, regulēt 4 motoru jaudu un pa vidu iebāzt +- loģiski sakonfigurētu neironu tīklu. Un apmācība var sākties, savukārt datu daudzums tev ir neierobežots, jo tie visu laiku tie tiek ģenerēti (nolasīti no sensoriem).

Vispārīgās tendences pagaidām ir:
1)interpretācija / saprašana - mēģina no lielas kaudzes datu izvilkt kādu globālāku secinājumu. Novērošana(objektu, sejas, emociju, auto numuru, utt. atpazīšana), medicīna(asins, MRT, CT un citu attēlu analīze un diagnozes noteikšana), interneta reklāmā (kādas un kur reklāmas izvietot), utt.
2)optimizācija - neironi tīkli rada algoritmus, kuri veic kādu procesu optimālāk, nekā līdz šim - finansu instrumentu tirdzniecība, robotu automatizācija (piemēram, tas pats drones stabilizācijas piemērs). Otrais bieži var izmantot jau kāda labi izveidota 1. saprastos datus. Piemēram, veikalā neironu tīkls varētu izmantot kamerās atpazītās cilvēku seju emocijas, lai izvēlētos fona mūziku, kura uzlabotu veikala ienākumus.
 

Share this post


Link to post
Share on other sites

tas, ka šīs tehnoloģijas kļūst meinstrīmīgas, pierādās arī ar to, ka Windows ML tūlīt būs Windows 10 sastāvdaļa

Share this post


Link to post
Share on other sites
On 4/25/2018 at 12:53 PM, codez said:

Ļoti daudzos gadījumos "milzīgi datu apjomi" nav problēma.
Piemēram, tu uztaisi kvadrokopteri un negribi programmēta advancētu stabilizācijas algoritmu. Viss, kas tev atliek, ir paņemt sensoru (akselometra, augstuma, gps, utmldz.) datus, regulēt 4 motoru jaudu un pa vidu iebāzt +- loģiski sakonfigurētu neironu tīklu. Un apmācība var sākties, savukārt datu daudzums tev ir neierobežots, jo tie visu laiku tie tiek ģenerēti (nolasīti no sensoriem).

Vispārīgās tendences pagaidām ir:
1)interpretācija / saprašana - mēģina no lielas kaudzes datu izvilkt kādu globālāku secinājumu. Novērošana(objektu, sejas, emociju, auto numuru, utt. atpazīšana), medicīna(asins, MRT, CT un citu attēlu analīze un diagnozes noteikšana), interneta reklāmā (kādas un kur reklāmas izvietot), utt.
 

Asinsainai un bioķīmijai jau sen ir izstrādāti automātiski analizatori. Katram parametram novirzes gadījumā ir iespējamo diagnožu sarakstu grupas. Analītika tiek veikta, ņemot vērā parametru kopu un rādījumus tajos. Izvērtējot korelācijas un sūdzības, tiek pielietoti rīcības algoritmi papildus izmeklējumiem. Viss šis bija kas jauns pirms 35 gadiem. 

 

GPU cores skaitļošanai tiešām ir perspektīva. 

 

Edited by alb

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

×