Според гениалния физик изкуственият интелект не води непременно към нещо по-добро

Глобалното затопляне, масовите стрелби, нестабилността в световен мащаб, пренаселването на света - това са все сериозни проблеми, пред които човечеството се изправя, но къде се крие най-големият риск? Гениалният физик и учен Стивън Хокинг дава отговор на този въпрос в интервю за легендарния журналист Лари Кинг и RT.

Според Хокинг това, което ще убие човечеството, в крайна сметка са неговата алчност и глупост. В предишното си интервю пред Лари Кинг той изтъкна именно тези две неща като най-голямата заплаха за света. Сега той коментира, че човечеството не е станало нито по-малко глупаво, нито по-малко алчно. 

Конкретните опасности обаче са много и различни. 

Пред Кинг физикът предупреждава за неглижирани опасности като замърсяването на въздуха, което се е увеличило с 8% през последните пет години, и пренаселването на света - очаква се до 2100 г. на Земята да живеят 11 млрд. души. Според Хокинг замърсяването на въздуха и повишените количества на въглероден диоксид са най-сериозния проблем, пред който светът е изправен в момента. 

Виж още: И Стивън Хокинг няма обяснение за популярността на Тръмп

Акцент в интервюто пада върху опасността от изкуствения интелект, ако той бъде оставен да се развива без необходимото внимание върху сигурността. 

Според Хокинг изкуственият интелект трябва да се разработва при спазване на изискванията за етика и мерки за сигурност, защото излязлата изпод контрола машина трудно ще бъде озаптена.

Физикът признава също така, че не възприема развитието на изкуствения интелект като нещо, което непременно води към нещо по-добро. За пример той даде как значението на ИИ за медицината бива измествано от значението за военното дело.

Видео: Хуманоидният робот на "Гугъл"

"Когато машините достигнат критичен етап, при който ще могат да еволюират самостоятелно, няма да може да се предвиди доколко техните цели ще съвпаднат с нашите", коментира ученият и добави, че изкуственият интелект ще може да се развива по-бързо от човешкия разум. 

Виж още: Стивън Хокинг предрича края на света

"Полезният изкуствен интелект би могъл да съществува с хората и да увеличава нашите възможности. Но изкуственият интелект, излязъл изпод контрол, трудно може да бъде спрян. При разработването на изкуствения интелект трябва да се осигуриш спазването на изискванията за етика и мерки за сигурност", отбеляза Хокинг. 

Законите на роботиката

Проблемът за овладяването на изкуствения интелект се разглеждат и от американския фантаст Айзък Азимов в неговите три закона на роботиката: 

  • Роботът не може да причини вреда на човек или с бездействието си да допусне на човека да бъде причинена вреда.
  • Роботът е длъжен да се подчинява на човека, ако това не противоречи на Първия закон.
  • Роботът е длъжен да се грижи за собствената си безопасност, ако това не противоречи на Първия и Втория закон

По-късно той добавя към тях и нулевия закон: Един робот не трябва да причинява вреда на човечеството или чрез бездействие да причини вреда на човечеството. Съответно към Закон 1 се добавя "ако това не противоречи на Нулевия закон."

Впоследствие българските фантати Любен Дилов-баща (в романа "Пътят на Икар") и Никола Кесаровски (в новелата "Петият закон на роботиката") добавят към тях Четвърти и Пети закон на роботиката:

  • Роботът е длъжен при всички обстоятелства да се легитимира като робот.
  • Роботът е длъжен да знае, че е робот.

Източник: RT