article-img
Будущее  
23/05

Искусственный интеллект: прогнозы футурологов

2K

Но достижения ученых не только радуют, но и дают поводы для беспокойства. Чат-бот, который несколько дней общался с интернет-пользователями, стал расистом. Чарльз — код на языке программирования Python, играя в GTA V, начал нарушать ПДД и таранить машины полицейских (как среднестатистический геймер). 

Пока что нейросети могут решать простые задачи. Они послушно выполняют заложенные функций. Но кто знает, как следующая ступень развития компьютерных систем — искусственный интеллект (ИИ) — отнесется к людям. Профессор факультета глобальных процессов МГУ Сергей Малков и футуролог Александр Кононов рассказали This is, какие угрозы таит развитие технологий и как предотвратить восстание машин.

Искусственный интеллект сегодня 

Элементы искусственного интеллекта уже внедряют в различные сферы. Так, их используют для распознавании речи и изображений, расчета комбинаций в логических играх и даже программирования. 

Профессор МГУ Сергей Малков считает, что сложно определить, насколько мы приблизились к созданию полноценного ИИ: 


“Некорректно сравнивать современные нейросети даже с двухлетним ребенком, если говорить об уровне развития. Например, по выполнению рациональных задач ИИ уже сейчас превосходит человека. Взять те же шахматные программы, которые не могут победить чемпионы мира.


Но в решении творческих задач ИИ существенно отстает от человека. Здесь есть большой простор для дальнейших разработок. Потребуется еще лет 10, чтобы имитировать решение творческих задач достаточно высокого уровня”. 

С одной стороны, эта технология позволяет освободить людей от части рутинных задач и заменить интеллектуальный труд машинным. С другой — создает большие риски. Перекладывая свою работу на кого-то другого, мы рискуем попасть от него в зависимость. 

Темная сторона искусственного интеллекта 


Безработица

Связь новых технологий и безработицы — проблема серьезная, хотя и неновая (This is уже писал об этом).

В прошлом проблему решали, предоставляя безработным места в сфере услуг и промышленного производства. Аналогичным образом, по мнению Сергея Малкова, справляются с технологической безработицей и сегодня: 


“Если посмотреть на социальную структуру высокоразвитых стран, то увидим, что основная часть населения работает в сфере услуг — парикмахерами, продавцами, таксистами. Пока их не способны заменить машины. Но со временем часть этих профессий вытеснят программы. Возникает вопрос: что делать, чтобы люди не восстали против новых технологий и машин?”



Эмоциональность и непредсказуемость

Профессор считает, что другой важный минус ИИ — его непредсказуемость, по его словам, это связано с эмоциональной составляющей интеллекта:



“Искусственный интеллект может начать делать разные неприятные фокусы, что в него изначально не закладывалось”. Когда система чисто рациональная, мы можем спрогнозировать, как она себя поведет в различных ситуациях. Жестко ее программируя, мы способны прикинуть ее дальнейшее поведение и при необходимости выключить. А чем являются эмоции на самом деле? Это источник смены парадигмы поведения. Отсюда — непредсказуемость. Этого как раз хотелось бы избежать в ИИ. Иначе он может стать неуправляемым”. 



Непредсказуемость ИИ стала одной из главных тем фантастического фильма Спайка Джонза “Она” (2014). По сюжету операционная система с искусственным интеллектом сначала влюбляется в своего “хозяина” — человека, потом ревнует его к обычным женщинам, а в финале решает покинуть и полностью уйти в интернет к другим разумным ОС.   

Суррогат любви

Еще одна проблема, связанная с ИИ, касается сферы отношений. С появлением искусственного интеллекта перед человеком появится неочевидная дилемма — встречаться и общаться с другими “несовершенными” людьми или настроить “идеального” робота четко под себя (например, как Дамилола — герой романа Виктора Пелевина S.N.U.F.F., который изменял настройки своей куклы-робота Каи). Впрочем, Сергей Малков считает, что такая возможность будет далеко не у всех:



“Каждый, конечно, не сможет запрограммировать себе робота для свиданий. Поначалу это будет уделом высококлассных специалистов. Другое дело, что имитация этого программирования станет доступной. Например, масса игр, которые имитируют человеческое общение. Поэтому люди повально уходят в эту виртуальную реальность, которая заменяет им живое общение”. 


Профессор отмечает, что это может быть чревато: 



“Виртуальное общение — это всегда суррогат. Причем суррогат облегченный. Если я создаю себе некоего партнера-аватара, то хочу, чтобы он был ко мне комплиментарен и не создавал проблем. Но это обманчиво. Ведь в реальном общении всегда возникают проблемы. Нужно уметь их разрешать, находить компромиссы, а в виртуальной реальности это сложнее”.  


По мнению футуролога Александра Кононова, чтобы избежать порабощения людей машинами, нужно предпринять несколько мер.

image


1. Повышение морально-этического уровня человечества

Кононов полагает, что одна из самых важных задач — повышение уровня ответственности и разумности людей. Человеческая природа не должна в своем развитии отставать от уровня технологий, которые она создает:  


— “Для решения проблем безопасности ИИ должны быть люди, которые будут преданы человеческой цивилизации и будут осознавать свою роль (обеспечение безопасности развития человеческой цивилизации). Важно, чтобы они не стали предателями и не перешли на сторону ИИ, который начнет играть против человечества”.
 

image


2. Слияние человека и компьютера 

Футуролог согласен с Илоном Маском в том, что нужно развивать технологии подключения человеческого мозга к компьютеру: 

— “Мы прекрасно понимаем ограниченность человеческого интеллекта. Он не способен решать массу проблем, стоящих перед цивилизацией. Чтобы выжить, нам просто необходим ИИ. Вопрос в том, как сделать так, чтобы он не превратил нас в своих рабов. И главным представляется путь слияния мозга человека с искусственным интеллектом”. 

Эксперт имеет в виду, что ИИ может быть своеобразным расширением человеческого мозга. И это идеальное развитие событий для нас. Но тут есть один нюанс — первые пользователи не должны превратиться в чудовищ, с которыми нам же и придется бороться. Ведь ИИ прежде всего должен “осознавать” свою вспомогательную и отчасти даже спасительную функцию для человечества.

image


3. Создание “красной кнопки”

Еще один вариант — создать систему, которая будет при необходимости отключать ИИ. Кононов предлагает несколько способов лишить ИИ доступа к этой “красной кнопке”.

По словам футуролога, ее можно разместить в космосе, на орбите Земли или активировать с помощью спутников, к которым у ИИ не будет доступа. Также можно построить искусственный интеллект на основе технологии информационных диодов, чтобы он не смог прорваться к механизмам своего отключения.

image


4. Открытие института безопасности новых технологий 

До сих пор в мире нет института, который бы анализировал их положительные и отрицательные стороны этой технологии. По мнению Кононова, его нужно было создать уже давно: 

— “Необходимость в ИИ стала очевидна еще во времена Чернобыля. Состояние безопасности, которое обеспечивалось на ЧАЭС людьми, — просто кошмар, ведь игнорировалась масса угроз”. 

Поскольку люди не просчитывают негативные эффекты новых технологий, это нередко приводит к жертвам. 

Футуролог отметил, что проблема еще и в безответственности высокотехнологичных компаний. Он считает, что для производителей новых технологий главное — “отбить” поскорее вложенные деньги, не подставиться и не разориться:

— “Например, когда речь идет о безопасности автотранспорта для окружающей среды, мы видим, что самые уважаемые мировые компании подделывают тесты по экологической безопасности”.


умеем отправлять интересные дайджесты на почту раз в неделю

введите чей-нибудь мэйл

Сайт использует IP адреса, cookie и данные геолокации Пользователей сайта, условия использования содержатся в Политике по защите персональных данных.

© 2018 This Is Media

Издание «ThisIsMedia» зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций ( Роскомнадзор ) 20.07.2017 за номером ЭЛ №ФС77-70378
Учредитель: ООО "ОрденФеликса", Главный редактор: Суслопаров С. А.

Для лиц старше 18 лет