Teadlased On Pakkunud Välja Viisi, Kuidas Tulevikus Robotite Tõttu Maailmalõpp ära Hoida - Alternatiivne Vaade

Teadlased On Pakkunud Välja Viisi, Kuidas Tulevikus Robotite Tõttu Maailmalõpp ära Hoida - Alternatiivne Vaade
Teadlased On Pakkunud Välja Viisi, Kuidas Tulevikus Robotite Tõttu Maailmalõpp ära Hoida - Alternatiivne Vaade

Video: Teadlased On Pakkunud Välja Viisi, Kuidas Tulevikus Robotite Tõttu Maailmalõpp ära Hoida - Alternatiivne Vaade

Video: Teadlased On Pakkunud Välja Viisi, Kuidas Tulevikus Robotite Tõttu Maailmalõpp ära Hoida - Alternatiivne Vaade
Video: The Vietnam War: Reasons for Failure - Why the U.S. Lost 2024, Aprill
Anonim

Paljud inimesed kardavad tulevikus roboti ülestõusu, kutsudes üles lõpetama tehisintellekti arendamine, et tulevikus vältida negatiivset stsenaariumi. Kuid robootika arendamisega seotud tööstuses on seotud tohutu hulk inimesi ja raha, nii et keegi ei kavatse selliste tehnoloogiate arendamist peatada. Kas meie loomingu tõttu võib tekkida apokalüpsis ja kas on olemas võimalus masinate ülestõusu ära hoida?

Mõni aeg tagasi avaldas Science Alert teadusmaailma ekspertide artikli, kus räägiti spetsiaalse algoritmi väljatöötamisest, mis aitab tulevikus vältida tehisintellektiga robotite kontrollimatut käitumist. Teadlaste sõnul ei saa robotid selle meetodi tõttu lihtsalt inimestele kahjustada.

Teadlased ise nimetasid oma algoritmi Seldonianiks. Kuid mis on selle tähendus? Algoritmid suudavad analüüsida masinate lubamatut käitumist ja kaitsevad inimesi maksimaalselt robotite negatiivsete toimingute eest, kuid algoritmid ei sisalda hea ja halva käitumise mõistet, seetõttu ei usu kõik spetsialistid algoritmide kaitsefunktsioonidesse.

Uue süsteemi arendajad rääkisid algoritmi toimimisest, kasutades ühte näitest, milleks on insuliinipumba juhtimine automatiseeritud süsteemi abil. Kui patsiendi veres väheneb insuliini hulk äärmiselt madalale tasemele, siis soovitavad algoritmid inimese päästmiseks vajalikke toiminguid.

Mõni aeg tagasi väljendasid mitmed teadlased muret tehisintellektil põhinevate tuumarelvade väljatöötamise pärast. Kui sellised süsteemid teevad ise oma otsused, võib see põhjustada Maal apokalüpsise. Ärge unustage häkkerite tegevust, kes võivad selliseid süsteeme häkkida, ja ükski kaitsealgoritm ei aita sel juhul. Seega võib arvata, et robotite ja tehisintellekti arendamise valdkonnas pole tänapäevase maailma ohtude eest ideaalset kaitset.

Soovitatav: