Interesuje me vase misljenje o sledecem: da li bi kao osnova svake (pa i vestacke) inteligencije trebao da se nalazi neki random generator, koji bi omogucio da takva inteligencija ima moc da odluci da li ce ili nece da izvrsi neku operaciju. Pa da se onda preko toga implementiraju funkcije koje bi preferirale jednu od opcija, ali da uvek postoji mogucnost da se uprkos "zdravom razumu" izvrsi neka od funkcija koju taj razum nikako ne sugerise. I da li bi ta inteligencija imala memoriju koja bi bila trajna, tj jednom kad nesto zapamti da ne zaboravlja ili bi se na neki nacin stare informacije menjale novim ukoliko se proceni da su nove vaznije, kako bi se izbegla potreba za beskonacnim kapacitetom memorije robota. I kako je moguce robotu dati mogucnost da uci putem iskustva, tj da zna sta je bitnije za njega a sta nije? Mozda bi mu trebalo pre svega implementirati neke Dogme koje bi bile prioritet svih prioriteta, kao npr: "Moras izbeci sopstveno unistenje po svaku cenu", "Moras da stices nova saznanja" ... itd ... Da li bi na osnovu toga on mogao da pravi selekciju sta mu treba, a sta ne od informacija koje dolaze do njega. Pogotovo ako bi se robotu dale kao prioritet neke delimicno kontradiktorne Dogme, kako bi on reagovao na to? Mozda bi postao psihotican? O ovoj temi sam na netu uspeo da nadjem neke rasprave, ako je jos neko uspeo da naleti na nesto slicno ostavite mi link....
Pozdrav svima.