humanoid

Blogs » Blog - Ella » humanoid
2020. 09. 28. 11:00 | Appeared: 1560x
ha csinál(tat)hatnál magadnak humanoidot megtennéd?
ha beprogramoztatnád arra, hogy megtanulja, átélje az emberi érzéseket, vágyakat, gondolkodjon és saját döntéseket hozzon, vitatkozzon veled megtennéd?
ha szabadon engedhetnéd, megtennéd?

beprogramoznád-e, hogy partnere (elszenvedője/élvezője) legyen a te vágyaidnak?
tanítanád?

Comments (70)


Ella Deleted user
#380105 | 2020. 09. 29. 21:57
Kösz, de valószínű sok újat nem tudna mondani, megvan a saját világképem. A biztos bizonytalanság. :D
#380104 | 2020. 09. 29. 21:46
ha gondolod, tudok neked ebben a témában javasolni olvasnivalót
Deleted user
#380103 | 2020. 09. 29. 21:40
Amúgy néha eljátszom a gondolattal.

Az sokszor előkerül, honnét van az élet, vagy az élet értelme? Viszont engem inkább az érdekelne, honnét származik az intelligencia. Az élet véletlen velejárója? Vagy azért alakult ki az élet a hardver, hogy legyen az intelligenciának hordozója?

A ma embere egyre kevésbé érti a világot. A ma tudósai már csak egy-egy részét ismerik a saját területüknek, a magányos felfedezők korának vége. Az átlagemberről nem is szólva. Az intelligenciának egyre inkább korlátot jelent a testünk. Vajon szükségszerű a továbblépés? Vagy elve ez a kódolt célirány? A szuper agy?
Ella Deleted user
#380101 | 2020. 09. 29. 19:15
Sokszor emlegettem, mert megfogott a mondat tartalma. 2014-ben láttam az első öntanuló négy lábú robotról egy ismeretterjesztőt. Megtanult járni, de egyáltalán nem úgy mozgott ahogy a fejlesztők elképzelték.

Szó volt az emberi agy korlátairól, megszületik 20 évig tanul, 21-40 évig alkot, majd hanyatlik. Egy fejlettebb már úgy jön létre, hogy minden tud mint az elődje, nem fárad el, stb......

No és az egyik fejlesztőtől hangzott el a következő, valahogy ilyenformán. "A biológiai lét egyetlen célja, hogy megalkossa a tökéletes gépet"
#380100 | 2020. 09. 29. 19:01
ha egy gondolkodó robot felhívja a figyelmet arra, hogy pusztítjuk a világunkat, lehet feladatba adni neki, vagy akár saját jószántából is beleáll abba, hogy keresse rá a megoldást.
ha pedig az emberiség kipusztul, így jártunk. talán a robotok lesznek a következő generáció, amik túlélnek minket és benépesítik a földet.
Deleted user
#380099 | 2020. 09. 29. 17:20
Azt hiszem kissé kisarkitotátok a mondani valomat. Nagy dilemma, de mégis bele álok. Bár úgy látom a koment rengeteg más irányba fut.
Szerintem h létre hozol egy mesterséges intelligenciát, és azt akarod h őntudata legyen, jó eséllyel okosab lesz, és konzekvenseb mint te én.
Persze jó dolog h van bolt meg autó meg orvos, de mégis egy aprób szőszenet. Robot=R, én=É.
R=szóval meg dralkotátok az uotut h eljusatok a ból, b be?
É=igen
R=kőzben pedig túl gépiesetettek, és saját levegőtőket, levegőnket, élitek fel, szenyezitek tele?!
É=hát igen.
R=de legalább eltudsz meni a boltba, bármejikbe?
É=igen! Elszeretnél menni valamejikbe?
R=igen, mejiket javaslod?
É=madaras tescot.
R=meglátásom szerint van kőzelebb is. Miért pont ezt?
É=tudod van egy olyan emberi kikapcsolod@s h kocsikázás.
R=HA jól értem az egyik hobbi, élvezeti tevékenységetekkel pusztítjátok saját őn magatokat.
É=hááát.....
És persze még anyi példa, az évezredek óta tartó válás, és falyi háborúk, a mérhetetlen gazdasági szakadékok, a semmibe vett adő forintok és a satőbi.
Persze lehet mondani h mikor jőtek a tatárok, jahm elindultál a másik irányba, elkaptak meghaltál, megmenekűltél újra kezdted, saját erőből munkával, szinte a semmiből évek alat tudtál ezt azt ősze hozni.
Most merre menjen az ember, semi nélkűl elindul, életet kezdeni, nagykn talpra esetnek kel lenni, és mai meg élt színből lentebb adni, jó persze sokak csinálják meg ugye menekűltek, jahm majd el is felejtettem h azokat utáljuk.
Létre hozol egy értelmes lényt utána meg meg próbálod neki elmagyarázni h őt csak azért utáljuk mert idegen. Nem fogja érteni, mert ő is idegen.
Ne értsétek félre, jó élni a mai világban, de mi áron? Te, én, ő, szabadok vagyunk szabadon élhetjűk meg magunkat, bármit, békességben? Hmm még itt pixien sem, de ez megint más tészta, leveles.
#380047 | 2020. 09. 29. 00:35
Latod erre nem is gondoltam... Hmm...
Ella Deleted user
#380045 | 2020. 09. 29. 00:31
Mindenre van igeny hidd el:))
#380044 | 2020. 09. 29. 00:14
"Egy uj elmeny..."
#380043 | 2020. 09. 29. 00:14
Milyen jo lenne annak a dooomnak ha a 4~5. korty utan telibehanynam mert erolteti. :D
Deleted user
#380042 | 2020. 09. 29. 00:12
Mennyivel egyszerubb lenne egy dóóómmal...
Megmondana...Hyogyszert beveszed es iszol sokat!
Ertve vagyok?
🤣
Ella Deleted user
#380041 | 2020. 09. 29. 00:11
Na latod!
O is sejt valamit!😂
#380040 | 2020. 09. 29. 00:07
A szubom minden nap megkerdezi hogy: Szepsegem gyogyszeredet bevetted? Iszol eleget? :D
Ella Deleted user
#380039 | 2020. 09. 29. 00:07
Amit akarok azt felreertem;))
Ella Deleted user
#380038 | 2020. 09. 29. 00:06
Vesedbe latok!
Iszol te eleget?:D
#380037 | 2020. 09. 29. 00:05
Kulonben is mivel tudtam hogy felre fogod erteni csak a te kedvedert tettem oda vesszot. De ugy latom folosleges volt. :(
#380036 | 2020. 09. 29. 00:04
Baszki honnan tudtad hogy az aktualis konyv irojanak van olyan regenye hogy Festett testek? Te valami gondolatolvasos mentalvarazslo vagy?! :O
Ella Deleted user
#380035 | 2020. 09. 29. 00:01
A sarga de foleg a zold geci valami egeszsegugyi problemra utal szerintem.
Erdemes lenne felkeresned kezeloorvosodat vagy gyogyszereszedet...

Vagy szoksz nekem. Vallalok testfestest:)
#380034 | 2020. 09. 29. 00:00
Persze mert ezen zavarogsz ahelyett hogy megmondanad kell~e neked almaidbol kilepo csini biorobot.
#380033 | 2020. 09. 28. 23:59
Sarga vagyok meg zold, geci...
Deleted user
#380032 | 2020. 09. 28. 23:58
*Nem hiba hanem hiaba!

Teljesen osszezavarsz itt a vegen😒
Ella Deleted user
#380031 | 2020. 09. 28. 23:57
Hiba...van ahova szuletni kell!

😂😂😂
#380030 | 2020. 09. 28. 23:56
Nalatok van madaras tacsko? Nalunk csak madar nelkuli van az is a halal faszaban. Bakker szerencses vagy bro! :)
Ella Deleted user
#380029 | 2020. 09. 28. 23:53
A tatarjaras szerintem egy optimalis idoszak volt a gyermekvallalasra....
Bezzeg manapsag, amikor beke van,autoval jarunk az angol wc-re meg a jakuzzira, osszkomfort, gyes, es minden hetvegen megtomott kosarak a madaras tecsoban...
Hat csoda h nem akarnak sokan erre a vilagra szulni?🤷🏻‍♂️


🤣
#380028 | 2020. 09. 28. 23:43
Az "erre a vilagra gyereket szulni" szerintem a tortenelem folyaman barmikor es mindenkor felmerulhetett volna. Betegsegek haboruk mindig voltak.
Asimovtol keveset olvastam. Ezt a blogot sem az o konyve ihlette.
Deleted user
#379993 | 2020. 09. 28. 17:51
Nem. Mert akármennyire is vonz, a tanit@s, átadás, őrőkités,stb.. még egy emberi lény bele potyantásán is gondolkodnék. Persze vannak jók is, boldogságok is, de ebbe a világba ami lassan szeműnk látára hulik darabokra. De kevesebb őn tudattal naná.
Elég hamar előjőt Asimov, bár amellett ugye h remek sci-fi író volt, eredetileg fizikus matematikus professzor.mély filozófia tőrvényekben nem volt ojan jó mint hobbiból meg alkotni egy ojan naptárt ahol minden hétfő 1. :) (hold tragédiálya c. Kőnyvbe)
Neuromancer viliem gibsontol még nem említetétek, bár ő teljesen más szemszőgből kőzeliti meg, h vajon egy mesterséges intelligencia tudatára ébred, miért ne hagyná ell....
Deleted user
#379984 | 2020. 09. 28. 16:10
Már legtöbbször most se tudjuk mit csinálnak a mesterséges neuronháló alapú rendszerek, pedig nem tudnak gondolkodni. ;)
Hurr Deleted user
#379982 | 2020. 09. 28. 16:07
A trolley problem egy érdekes dilemma, de a gyakorlatban használt mesterséges intelligencia algoritmusoknál pont az a probléma, hogy nem igazán lehet szabálykövetést beépíteni. Az önvezető autó nem fog moralizálni, egyszerűen csak ahhoz hasonlóan fog reagálni, ahogy a tanító adatokban reagált a(z emberi) sofőr a hasonló extrém helyzetekre. Pont az a para benne, hogy a fejlesztőknek sincs fogalmuk, hogy egy ilyen betanított hálózatból mi jön ki. Mindig tesztelni kell utána. A tanítás során betolsz pár ezer órányi videóanyagot (plusz esetleg egyéb szenzorok adatait), meg azt, hogy a sofőr mikor merre húzta a kormányt, mikor fékezett, mikor adott gázt stb.

Ebből feldolgozás után kijön egy olyan modell, amit "felfogni" nem tudsz, de amit ha rákötsz egy/több kamerára (plusz egyéb szenzorokra ha voltak), akkor a program a kapott input alapján húzogatja neked a kormányt jobbra-balra, plusz fékez/nyomja a gázt, hasonlóan ahhoz, amivel betanítottad. Ha a tanító sofőr rosszul vezetett, akkor a program pont úgy fog vezetni. És ha a tanító anyagban nem volt olyan szitu, amikor egy kisteherautó keresztbefordul előtted az autópályán vagy egy kisgyerek hirtelen beszalad eléd... az szívás.

Egy magyar startup egyébként pont ezzel kísérletezik, hogy virtuálisan szimulálják a hasonlóan extrém szituációkat, csak akkor meg az a kérdés, hogy a 3D-ben legenerált autók, állatok, gyerekek, köd stb, mennyire felelnek majd meg a valóságnak.
#379981 | 2020. 09. 28. 16:00
Szia Ella

Én beprogramoznám hogy tanulnia kell az emberi viselkedést, és az emberi természetet hogy megismerje.
És emellett tanítani is kellene,hogy mégjobban emberré tudjon válni.

És hogy fel lehetne -e használni BDSM játékokra ?
Naná.
Titkon szerintem minden ember ezt szeretné, csak bevallani nem merik sokan.
#379980 | 2020. 09. 28. 15:49
Vegyunk 3 peldat. Haziszolga~robot, szexszolga~robot vagy tarsalkodo/baratszolga~robot. Mindet a sajat kepedre kell formalnod de az utolso az akinel/aminel a vagykielegites maga a folyamat es elhuzodik elore megjosolhatatlan ideig.
Hurr Deleted user
#379979 | 2020. 09. 28. 15:46
Egyelőre a mesterséges intelligencia, még nem tud gondolkodni.

A lentebbi kérdések akkor vállnak kérdéssé ha a gondolkodó mesterséges megvalósul.

Onnét nincs program, nincsenek beépített törvények, semmi olyan amit mi emberek még meg tudnánk határozni.

Senki nem tudja mi lesz, ha lesz.
Hurr Deleted user
#379978 | 2020. 09. 28. 15:46
Egyelőre a mesterséges intelligencia, még nem tud gondolkodni.

A lentebbi kérdések akkor vállnak kérdéssé ha a gondolkodó mesterséges megvalósul.

Onnét nincs program, nincsenek beépített törvények, semmi olyan amit mi emberek még meg tudnánk határozni.

Senki nem tudja mi lesz, ha lesz.
#379956 | 2020. 09. 28. 14:46
önvezető autók programozásánál is előjöttek érdekes kérdések.

nagy sebességgel mész és kilép eléd egy gyalogos. számtalan helyzet lehetséges. ha az önvezető program 100%-ban a tulajdonos érdekeit nézi, akkor megpróbál fékezni, de a kormányt nem mozdítja. környezettől függő, hogy mekkora veszélynek teszi ki a tulajt, ha félrekormányoz. lehet ott fa, árok, betonfal. és lehet másik gyalogos is a járdán.

emberekkel modellezték, hogy találjanak erre megoldást. ha sok ember volt a járdán, akkor az emberek úgy döntöttek, hogy egyenesen mennek tovább, feláldozva az egyetlen embert az úton. de ha a gyalogos egy anyuka volt, aki babakocsit tolt, akkor mégis többen inkább félrerántották a kormányt. és a lehetőségek végtelenek...
#379951 | 2020. 09. 28. 14:18
Nem, valszeg egy idő után becsömörlesz, és azt se tudod, mi bajod. Már ha a kutyasétáltatás példáját visszavetítem a teljes vágykielégítésre. :) De ettől még mindig ott a mézmocsár veszélye. Néha nehéz belátni azt, hogy nem mindig vezet jóra, ha tovább "kényezteted" a másikat...millió egy példát lehetne mondani, a mamahoteltől kezdve, az ellustuláson keresztül, vagy akár...
#379949 | 2020. 09. 28. 14:14
ha neked van kutyád és elviszed sétálni, akkor kielégítetted a kutyasétáltatás vágyát. de vajon éveken keresztül minden kutyasétáltatás ugyanolyan?
#379947 | 2020. 09. 28. 13:56
Meg ugye ott a kérdés, hogy ha Ivey megéli a tökéletes beprogramozottságot, akkor...

Akkor aki beprogramozta, az nem-e tökéletes vágykielégítésre programozta-e be? És az nem azonnali vágykielégítés-e? Viszont ha betölti funkcióját, akkor Ivey mézmocsárrá változik-e? Hiszen a fejlődésre, az energiabefektetésre, az alkotásra, a tevékenységre nem épp a be nem töltött vágyak sarkalnak minket?
#379946 | 2020. 09. 28. 13:49
Nah, még egy kicsit pörgünk a kérdés körül, és hó elején lehet, megint feltűnik Pipe. :)

Érdekes kérdés. Mit tekintünk megélésnek. Yvey-t mennyiben lehet megtanítani a gépi látásra, a gépi hallásra, a gépi szaglásra... A kianalizált érzékletekhez lehet-e gépi nyelven olyan jutalmakat és büntetéseket párosítani, ami egy gép számára lehet "kellemes" vagy "kellemetlen" érzés. Ha egy ilyen algoritmus lefut, azt nevezhetjük-e érzelemek? De sok izgi kérdés. Te mire jutottál Ivey-jel? :)
#379944 | 2020. 09. 28. 13:44
Ivey nem akar beprogramozni. Ivey megélni akar. :)
#379943 | 2020. 09. 28. 13:43
Igen, szerintem pont ez lenne kulcsa, hogy univerzális törvényeket keresett Asimov ott, ahol nincsenek. Én nagyon szituatív etikai párján állok, annak látom értelmét. Ez viszont egy nagyon rázós terület, közel sodródhat a teljes etikai relativizmushoz.

Ha és amennyiben nincsen minden helyzetben működő univerzális törvény, akkor viszont nem szükségszerű oksági kapcsolat áll fenn az ok és az okozat (a változó és az eredménye) közt, hanem statisztikai valószínűség, vagy lehetőségi feltételnyi okság, vagy mérlegelés, kontextuális információk alapján súlyozott döntés... De bárhogy is csavarjuk a megfogalmazást, a kemény univerzális törvényből mindenképp "puha" törvény lesz.

Na ezt levetítve és leegyszerűsítve a programozásra, elég meredek azt mondani, hogy ne féljetek srácok, beprogramoztam a robotomat arra, hogy 73,4%-os valószínűséggel nem fog ártani az embereknek. :D
Deleted user
#379942 | 2020. 09. 28. 13:42
ha arra vágynék, h valakit "beprogramozzak, ráneveljek" bármilyen vágyra, akkor nem szabadítottam volna fel nemrég a szubomat. pedig ő nagyon szerette volna.

én viszont meguntam már az emberek "nevelgetését, irányitgatását." abba is bele lehet fáradni.
#379941 | 2020. 09. 28. 13:37
Én meg mostanában pont azzal foglalkozom, hogy embereket programozzak be a saját kedvemre.

-Pipe-
#379940 | 2020. 09. 28. 13:37
Világos, ha a programozás felől közelítjük meg a dolgot, akkor az asimovi törvényeknek egyelőre még a beépítése is tudtommal lehetetlen. Azért reagáltam úgy, hogy Asimov törvényeiből indultam ki, de az a rész, amíg eljutunk oda, hogy alkalmazva legyenek, még nincs megálmodva.
#379939 | 2020. 09. 28. 13:31
PErsze, de ez mind olyan parancs ami önellentmondásos, a szigorú szabályként elgondolt programozás (A vagy B) területén ezt nem lehet megoldani. Más kérdés, hogy a valószínűség alapú programozás (mint pl pont a mesterséges intelligenciák nagy része ilyen, ha nem tévedek), ezzel már tud valamit kezdeni, de elég nehézkes, és rizikós talaj. Itt most segítséget kérek, de Asimov már csak a korszakból kiindulva is szigorú, univerzális törvényekben próbált gondolkodni, mert akkoriban a valószínűség alapú programozás még nem dívott...
#379938 | 2020. 09. 28. 13:27
igen, az/ő nem testesült meg
#379935 | 2020. 09. 28. 12:57
Amúgy a posztban feltett kérdésre a válaszom: igen, létrehoznám. És szabad akarattal ruháznám fel, megtanítva arra, hogy mire tudja használni a szabad akaratot.
#379934 | 2020. 09. 28. 12:55
Ha végigolvasod Asimov Robot-ciklusát (elvileg magyarul lehozta az egészet a Szukits Kiadó öt brutálisan vaskos kötetben), akkor azokban szerintem találsz választ a kérdéseidre. :)

Ha azzal árt egy élőlénynek, hogy hagyja magát kikapcsolni, akkor nem engedi magát kikapcsoltatni.
Tulajdonként bizonyos esetekben felülírhatja a tulajdonosa parancsát, pl. Asimovnál nem árthat az emberiségnek. Robottal nem dobathatsz atombombát egy civil létesítményre.
Ha a tulajdonos eutanáziára használja a robotot, hogy ezzel megmentse magát vagy másokat, arról emlékeim szerint szintén írt Asimov, és a válasz az, hogy igen, ez esetben a robot kíméletesen megöli az illetőt. Vagy a konkrét esetedben a robot belenyúl a memóriádba és törli onnan a kritikus adatokat.
A korbácsolás részével viszont Asimov mintha nem foglalkozott volna, de annak alapján, amit olvastam tőle, igen. :D
Deleted user
#379933 | 2020. 09. 28. 12:54
Számomra az egy érdekes kérdés, mennyit árulnak el a valóságból, arról hol tartanak ma a mesterséges fejlesztésével.

A fecebook kísérlet. A mesterséges kutatására elfogadott amerikai törvény, hogy csak abszolút zárt, saját generátor, elektromosan árnyékolt, semmiféle külső csatlakozással nem rendelkező és épületben történhet. Amely törvényt más országok is magukévá tették.

Feltéve, ha igazak a híradások.
#379932 | 2020. 09. 28. 12:29
Igen-igen. De ott csak mesterséges intelligencia volt, ha jól emlékszem, ugye?
#379931 | 2020. 09. 28. 12:20
emlékszel az Eredet c. könyvre Azúr?
Azurit Deleted user
#379930 | 2020. 09. 28. 12:16
A törvény addig létezik amíg "valaki" magáénak érzi, vagy ameddig rá lehet szorítani a betartására.

A mesterséges intelligenciával pont ez a gond. Nincs ember aki tudná mit és hogyan érez, ha érez. Valamint senki nem tudja meghatározni a képességeit előre, ezért a törvények betartására kötelezés nem garantálható.
#379929 | 2020. 09. 28. 12:05
Azt hiszem azért sem lehet általános törvényeket létrehozni robotok számára, mert néha még az emberek számára sem egyértelmű, hogy mi a helyes egyes helyzetekben.
#379928 | 2020. 09. 28. 12:03
Valószínűleg nem, mert elértéktelenítené a valós embereket.

Egyébként Amismonov is érezte, hogy a három alaptörvény nem elégséges. Egymásnak ellentmondó eseteket hordanak magukban, ami használhatatlanná teszi az alapszabályokat. Pl: Nem árthatnak élőlényeknek. Hagynia kell kikapcsolnia magát. Mi van, ha éppen azzal árt egy élőlénynek, hogy hagyja magát kikapcsolni?
Ha ő egy tulajdon, akkor felülbírálhatja a tulajdonosa parancsát, hogy ártson másnak? Ha igen, mennyiben tulajdon?
Ha a tulajdonos kéri, hogy ölje meg, ami emberi logika alapján még lehet, hogy nem is az ártás kategóriájába esne, akkor megteheti-e? (Például egy tudós kegyetlen kínzásoknak néz elébe, hogy eláruljon egy titkot, ami számos embert keverhet életveszélybe. De nem képes megölni magát. Árt-e a robot, ha gyorsan és kíméletesen végez a gazdájával, vagy azzal árt, ha ezt nem teszi meg, és embertelen, elnyújtott kínoknak teszi ki őt ezzel? )
Megkorbácsolhatja-e a gazdáját a robot, ha a gazdája ezt élvezi? Számos probléma három első ránézésre elég jó szabállyal.
#379927 | 2020. 09. 28. 12:03
Valószínűleg nem, mert elértéktelenítené a valós embereket.

Egyébként Amismonov is érezte, hogy a három alaptörvény nem elégséges. Egymásnak ellentmondó eseteket hordanak magukban, ami használhatatlanná teszi az alapszabályokat. Pl: Nem árthatnak élőlényeknek. Hagynia kell kikapcsolnia magát. Mi van, ha éppen azzal árt egy élőlénynek, hogy hagyja magát kikapcsolni?
Ha ő egy tulajdon, akkor felülbírálhatja a tulajdonosa parancsát, hogy ártson másnak? Ha igen, mennyiben tulajdon?
Ha a tulajdonos kéri, hogy ölje meg, ami emberi logika alapján még lehet, hogy nem is az ártás kategóriájába esne, akkor megteheti-e? (Például egy tudós kegyetlen kínzásoknak néz elébe, hogy eláruljon egy titkot, ami számos embert keverhet életveszélybe. De nem képes megölni magát. Árt-e a robot, ha gyorsan és kíméletesen végez a gazdájával, vagy azzal árt, ha ezt nem teszi meg, és embertelen, elnyújtott kínoknak teszi ki őt ezzel? )
Megkorbácsolhatja-e a gazdáját a robot, ha a gazdája ezt élvezi? Számos probléma három első ránézésre elég jó szabállyal.
Ella Deleted user
#379926 | 2020. 09. 28. 11:59
Természetesen, amíg a gondolkodás lehetősége adott, a gondolat szabad.

A kérdés csak az, hogy mennyire okos. Ha eléggé akkor ki fogja gondolni, hogy ne irhassa felül senki, se a gondolatát, se az akaratát.
#379925 | 2020. 09. 28. 11:53
hús-vér embert, idegrendszerrel, hormonokkal, mindennel. aki a te tulajdonod, egy biorobotot.
Deleted user
#379924 | 2020. 09. 28. 11:51
Nem Mikrobi?
Deleted user
#379923 | 2020. 09. 28. 11:51
Csak h pontosan ertsem.
Szoval humanoid? Egy hus ver embert krealtatnek-e magamnak?
#379922 | 2020. 09. 28. 11:50
ha te tulajdon lennél, lenne szabad akaratod?
gondolkodhatsz, kimondhatod, de érsz vele bármit, ha az ember felülírja azt, amit te jónak érzel?
Ella Deleted user
#379921 | 2020. 09. 28. 11:48
Még valami. Ha gondolkodik, akkor a döntései szabad akarattal születnek.
#379920 | 2020. 09. 28. 11:47
köszönöm, erre a válaszra vágytam, bár a blogban feltett kérdések eléggé zanzásítva lettek leírva.

tulajdonképpen a könyv, amit olvastam annak a dilemmája, mikortól tekinthető az ember embernek és a nagyobb jó érdekében lehet-e önzőnek lenni vagy ölni.
#379919 | 2020. 09. 28. 11:45
Isaac Asimov a Robot sorozatában fejtegeti ezt a problémát. Ajánlom a könyvet, mert izgalmas.
#379918 | 2020. 09. 28. 11:39
nem árthat?
de remélem annyira azért árthatna, hogy az nekem jó legyen.
ha kikapcsolható lenne, akkor már nem érdekelne.
Deleted user
#379917 | 2020. 09. 28. 11:39
Hát elég komoly erkölcsi kérdéseket vetne fel. Tulajdonképpen élőlénynek tekinteném azt a valamit ami vágyakkal, önálló értékrenddel és önálló gondolatokkal rendelkezik, így emberi jogok illetnék meg a robotot is.
Ella Deleted user
#379916 | 2020. 09. 28. 11:38
Nem a program az program, én konkrétan a gondolkodásra, a gondolat világára értettem.
#379915 | 2020. 09. 28. 11:37
nem élné meg az érzelmeket. csak úgy viselkedne, mintha megélné.
de vannak ilyen emberek is, akik csak úgy tesznek, mintha. tehát ebből a szempontból is emberi lenne.
Ella Deleted user
#379914 | 2020. 09. 28. 11:37
Akkor ember lenne, gép testben. Ebben a formában nem lenne semmi ellenérzésem.
Deleted user
#379913 | 2020. 09. 28. 11:35
Nem.
#379912 | 2020. 09. 28. 11:31
ha az alapprogramja az lenne, hogy:
- nem árthat élőlénynek
- ő egy tulajdon
- a tulajdonosa bármikor kikapcsoltathatja, ha hibázik, vagy nem elég jó
#379911 | 2020. 09. 28. 11:25
igen ám, de ha megtanulná és meg is élné az emberi érzelmeket?
Deleted user
#379910 | 2020. 09. 28. 11:23
Nem tudom. Nem tudom, ha egyszer összejön a gondolkodó gép az hová vezet.
És ami nagyobb probléma, legalábbis az emberiség szempontjából, hogy a legokosabb emberek sem tudják. Nem tudják még elképzelni sem, hogy az óriási erőfölény amit egy gépi agy elérhet, mit fog hozni a jövő alakulására.






 
aaaaaaaaaaaa