Jump to content
php.lv forumi

Neironu tīkli


alb

Recommended Posts

Šobrīd ir divi pielietojumi (Manas privātas domas)

Kompānijām kurām ir milzīgi datu apjomi un kurām gribās kaut ko lietderīgo no šiem datiem iegūt/saprast. Visi pārējie ir simulanti ar +60% precizitāti, pie laba vēja un stabila mitruma koeficienta gaisā.

Otrā, computer vision. Ņemot vērā, ka manā īpašuma ir jaunākā Intel RealSense kamera, un tā kamera ir nelietojams sūds. Secinājums, ja pats nebūvē savus sensorus/softu un kameras/softu. Vienīgais ko var izdarīt, ir padzenāt roboto pa istabu, vai vēl kaut kādu nelietderīgu "čerņu". Precizitāte nekāda, informācijas vēl mazāk.

Kopumā, lai izveidotu pārdodamu produktu, jāmāk batoni spraust pircējam ausīs.

 

 

Link to comment
Share on other sites

Ļoti daudzos gadījumos "milzīgi datu apjomi" nav problēma.
Piemēram, tu uztaisi kvadrokopteri un negribi programmēta advancētu stabilizācijas algoritmu. Viss, kas tev atliek, ir paņemt sensoru (akselometra, augstuma, gps, utmldz.) datus, regulēt 4 motoru jaudu un pa vidu iebāzt +- loģiski sakonfigurētu neironu tīklu. Un apmācība var sākties, savukārt datu daudzums tev ir neierobežots, jo tie visu laiku tie tiek ģenerēti (nolasīti no sensoriem).

Vispārīgās tendences pagaidām ir:
1)interpretācija / saprašana - mēģina no lielas kaudzes datu izvilkt kādu globālāku secinājumu. Novērošana(objektu, sejas, emociju, auto numuru, utt. atpazīšana), medicīna(asins, MRT, CT un citu attēlu analīze un diagnozes noteikšana), interneta reklāmā (kādas un kur reklāmas izvietot), utt.
2)optimizācija - neironi tīkli rada algoritmus, kuri veic kādu procesu optimālāk, nekā līdz šim - finansu instrumentu tirdzniecība, robotu automatizācija (piemēram, tas pats drones stabilizācijas piemērs). Otrais bieži var izmantot jau kāda labi izveidota 1. saprastos datus. Piemēram, veikalā neironu tīkls varētu izmantot kamerās atpazītās cilvēku seju emocijas, lai izvēlētos fona mūziku, kura uzlabotu veikala ienākumus.
 

Link to comment
Share on other sites

On 4/25/2018 at 12:53 PM, codez said:

Ļoti daudzos gadījumos "milzīgi datu apjomi" nav problēma.
Piemēram, tu uztaisi kvadrokopteri un negribi programmēta advancētu stabilizācijas algoritmu. Viss, kas tev atliek, ir paņemt sensoru (akselometra, augstuma, gps, utmldz.) datus, regulēt 4 motoru jaudu un pa vidu iebāzt +- loģiski sakonfigurētu neironu tīklu. Un apmācība var sākties, savukārt datu daudzums tev ir neierobežots, jo tie visu laiku tie tiek ģenerēti (nolasīti no sensoriem).

Vispārīgās tendences pagaidām ir:
1)interpretācija / saprašana - mēģina no lielas kaudzes datu izvilkt kādu globālāku secinājumu. Novērošana(objektu, sejas, emociju, auto numuru, utt. atpazīšana), medicīna(asins, MRT, CT un citu attēlu analīze un diagnozes noteikšana), interneta reklāmā (kādas un kur reklāmas izvietot), utt.
 

Asinsainai un bioķīmijai jau sen ir izstrādāti automātiski analizatori. Katram parametram novirzes gadījumā ir iespējamo diagnožu sarakstu grupas. Analītika tiek veikta, ņemot vērā parametru kopu un rādījumus tajos. Izvērtējot korelācijas un sūdzības, tiek pielietoti rīcības algoritmi papildus izmeklējumiem. Viss šis bija kas jauns pirms 35 gadiem. 

 

GPU cores skaitļošanai tiešām ir perspektīva. 

 

Edited by alb
Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
×
×
  • Create New...