robots

Почему робот не отнимет у вас работу?

Нашествие роботов не начнется завтра или послезавтра. Так что есть время разобраться в них поподробнее. Первой была Мадалин.

Еще в 1959 году она использовала свой впечатляющий интеллект для устранения эха в телефонных разговорах, с которым раньше никто не умел бороться (тогда при междугородних звонках говорящим часто мешало эхо собственного голоса).

madalinМадалин решила эту проблему: если входящий сигнал оказывался точно таким же, как исходящий, он удалялся с помощью электроники, причем решение было настолько элегантным, что используется и по сей день. Конечно, речь идет не о человеке — это была система из нескольких адаптивных линейных элементов, по-английски Multiple ADAptive LINear Elements или Madaline. Это был первый случай практического использования искусственного интеллекта (ИИ).

 

Сегодня мы то и дело слышим, что роботы отнимут у нас работу, — мы еще будем допивать утренний кофе, а они уже переделают все наши дела, ведь им не нужны перекуры, перерывы на обед и ночной сон. На самом деле, хотя в самом ближайшем будущем многие рабочие места будут автоматизированы, эта новая порода супермашин, скорее всего, будет работать вместе с нами, а не вместо нас. Только 5% рабочих мест могут быть полностью автоматизированы

Несмотря на огромный прогресс в самых разных областях — сегодня программы умеют распознавать мошенников еще до совершения преступления и надежнее врачей диагностировать рак, — даже самые современные ИИ-системы ни на йоту не приблизились к так называемому общему интеллекту. Согласно отчету консалтингового агентства McKinsey, 5% рабочих мест могут быть полностью автоматизированы, но в 60% профессий роботы смогут взять на себя лишь около трети задач.

…Итак, прежде чем накрываться простыней и ползти на кладбище, давайте обсудим, как именно может быть устроена совместная работа с роботами и какие причины помешают им занять наши места.

Причина №1: Роботы не умеют думать как человек

При­мер­но в те же годы, когда Ма­да­лин на­чи­на­ла свою служ­бу на те­ле­фон­ных ли­ни­ях, вен­гер­ско-бри­тан­ский фи­ло­соф Майкл По­ла­ни много раз­мыш­лял о че­ло­ве­че­ском ин­тел­лек­те. Он понял, что есть на­вы­ки, ко­то­рые можно опи­сать чет­ки­ми пра­ви­ла­ми и объ­яс­нить (как пра­виль­ную рас­ста­нов­ку за­пя­тых), но это лишь часть того, чем мы за­ни­ма­ем­ся.

Люди могут вы­пол­нять массу раз­ных вещей, даже не осо­зна­вая, как имен­но они это де­ла­ют. По­ла­ни сфор­му­ли­ро­вал это так: «Мы знаем боль­ше, чем можем ска­зать». Это могут быть и прак­ти­че­ские на­вы­ки вроде езды на ве­ло­си­пе­де или за­ме­ши­ва­ния теста, а также более вы­со­ко­уров­не­вые за­да­чи. И, увы, если мы не знаем пра­вил, мы не можем пе­ре­дать их ком­пью­те­ру, — это па­ра­докс По­ла­ни.

Уче­ные вме­сто того, чтобы по­пы­тать­ся вос­со­здать че­ло­ве­че­ский ин­тел­лект, пошли дру­гим путем — они на­ча­ли раз­ра­ба­ты­вать мыш­ле­ние, управ­ля­е­мое дан­ны­ми.

projectРич Ка­ру­а­на, стар­ший на­уч­ный со­труд­ник Microsoft Research го­во­рит: «Неко­то­рым ка­жет­ся, что ИИ будет ра­бо­тать так: мы пой­мем, как ду­ма­ют люди, а потом по­стро­им ма­ши­ну по на­ше­му об­ра­зу и по­до­бию. Не тут-то было». Он при­во­дит при­мер са­мо­ле­тов, ко­то­рые были изоб­ре­те­ны за­дол­го до того, как мы по­ня­ли, как ле­та­ют птицы — да, они устро­е­ны по со­всем дру­гим аэро­ди­на­ми­че­ским прин­ци­пам, но в итоге мы ле­та­ем выше, быст­рее и даль­ше, чем любое живое су­ще­ство.

Как и Ма­да­лин, мно­гие си­сте­мы ИИ яв­ля­ют­ся ней­рон­ны­ми се­тя­ми, то есть они учат­ся на огром­ных мас­си­вах дан­ных, ис­поль­зуя ма­те­ма­ти­че­ские мо­де­ли. На­при­мер, Facebook на­тре­ни­ро­вал свою про­грам­му для рас­по­зна­ва­ния лиц под на­зва­ни­ем DeepFace на на­бо­ре из че­ты­рех мил­ли­о­нов фо­то­гра­фий. Он искал за­ко­но­мер­но­сти в сним­ках, по­ме­чен­ных, как изоб­ра­же­ния од­но­го и того же че­ло­ве­ка, и в итоге на­учил­ся пра­виль­но со­по­став­лять фо­то­гра­фии при­мер­но в 97% слу­ча­ев.

Про­грам­мы по­доб­ные DeepFace — это вос­хо­дя­щие звез­ды Крем­ни­е­вой до­ли­ны, и они уже пре­взо­шли своих со­зда­те­лей во мно­гом: в во­жде­нии ав­то­мо­би­ля, в рас­по­зна­ва­нии го­ло­са, пе­ре­во­де тек­ста с од­но­го языка на дру­гой и, ко­неч­но же, в раз­мет­ке фо­то­гра­фий. И это не конец, в бу­ду­щем они про­ник­нут в самые раз­ные об­ла­сти, от здра­во­охра­не­ния до фи­нан­сов.

Причина №2: Наши новые друзья-роботы не идеальны, они делают ошибки

Увы, обу­че­ние на при­ме­ре су­ще­ству­ю­щих дан­ных озна­ча­ет, что ИИ может де­лать ошиб­ки, при­чем ино­гда неожи­дан­ные. Ска­жем, ней­рон­ная сеть может за­клю­чить, что че­ре­па­ха, на­пе­ча­тан­ная на 3D-прин­те­ре, яв­ля­ет­ся вин­тов­кой (это ре­аль­ный экс­пе­ри­мент уче­ных Мас­са­чу­сет­ско­го тех­но­ло­ги­че­ско­го ин­сти­ту­та). Про­грам­ма не может мыс­лить как че­ло­век, рас­суж­дая, что это жи­вот­ное с пан­ци­рем и че­шуй­ча­той кожей, то есть че­ре­па­ха. Она ду­ма­ет шаб­ло­на­ми — в дан­ном слу­чае гра­фи­че­ски­ми, то есть со­че­та­ни­я­ми пик­се­лей, и из­ме­не­ние бук­валь­но од­но­го пик­се­ля может пре­вра­тить ра­зум­ный ответ в со­вер­шен­но неле­пый.

robotsКроме того, у ро­бо­тов нет здра­во­го смыс­ла, без ко­то­ро­го нече­го де­лать на любой ра­бо­те, ведь он поз­во­ля­ет при­ме­нять име­ю­щи­е­ся зна­ния к новым си­ту­а­ци­ям, с ко­то­ры­ми мы пре­жде не встре­ча­лись.

Клас­си­че­ский при­мер — ис­кус­ствен­ный ин­тел­лект DeepMind. Еще в 2015 году ему дали клас­си­че­скую ком­пью­тер­ную игру Pong, и он начал упраж­нять­ся в ней, по­сте­пен­но по­вы­шая уро­вень игры. Как и сле­до­ва­ло ожи­дать, уже через несколь­ко часов он начал обыг­ры­вать людей, и даже изоб­рел несколь­ко со­вер­шен­но новых при­е­мов, ве­ду­щих к по­бе­де, но осво­е­ние почти такой же игры Breakout ему при­ш­лось на­чи­нать с нуля.

Впро­чем, те­перь этим во­про­сам уде­ля­ют боль­шое вни­ма­ние, и есть си­сте­ма под на­зва­ни­ем IMPALA, де­мон­стри­ру­ю­щая пе­ре­да­чу зна­ний между 30 раз­лич­ны­ми сре­да­ми.

Причина №3: Роботы не могут объяснить, почему они приняли то или иное решение

Еще одна про­бле­ма ИИ — со­вре­мен­ная вер­сия па­ра­док­са По­ла­ни. По­сколь­ку мы не очень по­ни­ма­ем, как ра­бо­та­ют наши соб­ствен­ные мозги, мы на­учи­ли ИИ ду­мать «ста­ти­сти­че­ски», и те­перь не знаем, что про­ис­хо­дит у него «в го­ло­ве» тоже.

Обыч­но это на­зы­ва­ет­ся «про­бле­мой чер­но­го ящика»: мы знаем, какие дан­ные по­да­ли на вход, видим ре­зуль­тат, но не пред­став­ля­ем, как сто­я­щий перед нами ящик при­шел к этому вы­во­ду. Ка­ру­а­на го­во­рит: «Итак, те­перь у нас уже два вида ин­тел­лек­та, и мы не по­ни­ма­ем ни один из них».

Ней­рон­ные сети не умеют го­во­рить, по­это­му они не могут объ­яс­нить нам, что и по­че­му де­ла­ют. А кроме того, как у лю­бо­го ИИ, у них нет здра­во­го смыс­ла.

robotНесколь­ко де­ся­ти­ле­тий назад Ка­ру­а­на при­ме­нил ней­рон­ную сеть к неко­то­рым ме­ди­цин­ским дан­ным. На входе он вво­дил в си­сте­му симп­то­мы и исход ле­че­ния, желая рас­счи­тать риск смер­ти па­ци­ен­тов с те­че­ни­ем вре­ме­ни — на ос­но­ва­нии этих про­гно­зов врачи могли бы при­ни­мать про­фи­лак­ти­че­ские меры. Ка­за­лось, что все ра­бо­та­ет хо­ро­шо, но од­на­ж­ды ночью сту­дент-ма­ги­странт Уни­вер­си­те­та Питтс­бур­га за­ме­тил что-то стран­ное. Он про­шел­ся по тем же дан­ным с по­мо­щью более про­сто­го ал­го­рит­ма, поз­во­ля­ю­ще­го про­сле­дить ло­ги­ку при­ня­тия ре­ше­ния, и об­на­ру­жил, что си­сте­ма счи­та­ет астму по­ло­жи­тель­ным фак­то­ром при пнев­мо­нии.

Ка­ру­а­на го­во­рит: «Мы пошли с этим к вра­чам, и они ска­за­ли, что это не так, и что си­сте­му нужно по­пра­вить — астма вли­я­ет на лег­кие, по­это­му это до­пол­ни­тель­ный фак­тор риска при пнев­мо­нии». Как так вышло, мы ни­ко­гда не узна­ем, но у раз­ра­бот­чи­ков есть вер­сия, что, воз­мож­но, па­ци­ен­ты с аст­мой вни­ма­тель­нее от­но­сят­ся к бо­лез­ням лег­ких и рань­ше идут к врачу, а зна­чит, чаще вы­здо­рав­ли­ва­ют.

Ин­те­рес к ис­поль­зо­ва­нию ИИ в раз­ных об­ла­стях че­ло­ве­че­ской де­я­тель­но­сти рас­тет, и это вы­зы­ва­ет бес­по­кой­ство у экс­пер­тов. В этом году всту­па­ют в силу новые пра­ви­ла Ев­ро­пей­ско­го союза, со­глас­но ко­то­рым че­ло­век, от­но­си­тель­но ко­то­ро­го ИИ при­нял то или иное ре­ше­ние, имеет право узнать ло­ги­ку, со­глас­но ко­то­рой это ре­ше­ние было при­ня­то. А агент­ство Darpa, ис­сле­до­ва­тель­ское под­раз­де­ле­ние аме­ри­кан­ско­го Ми­ни­стер­ства обо­ро­ны, ин­ве­сти­ру­ет 70 млн дол­ла­ров в про­грам­му раз­ви­тия «объ­яс­ня­е­мо­го» ИИ.

Дэвид Ган­нинг, ру­ко­во­ди­тель про­ек­та Darpa, го­во­рит: «В по­след­нее время точ­ность этих си­стем вы­рос­ла на по­ря­док, но мы пла­тим за это рас­ту­щей слож­но­стью и непро­зрач­но­стью — мы не знаем, по­че­му она при­ни­ма­ет то или иное ре­ше­ние, и по­че­му в игре она де­ла­ет имен­но такой ход».

Причина №4: Роботы могут быть предвзяты

На этом фоне вы­ска­зы­ва­ют­ся опа­се­ния, что ал­го­рит­мы могут уна­сле­до­вать от нас пред­рас­суд­ки, в том числе сек­сизм или ра­сизм. К при­ме­ру, недав­но ока­за­лось, что про­грам­ма, вы­чис­ля­ю­щая ве­ро­ят­ность по­втор­но­го пра­во­на­ру­ше­ния для пре­ступ­ни­ка, вдвое чаще ука­зы­ва­ла на воз­мож­ный ре­ци­див для чер­но­ко­жих осуж­ден­ных.

Все за­ви­сит от дан­ных, на ко­то­рых учит­ся ал­го­ритм, — если они ясны и непро­ти­во­ре­чи­вы, тогда при­ни­ма­е­мое ре­ше­ние, ско­рее всего, будет пра­виль­ным. Тем не менее в на­бо­ры дан­ных за­ча­стую уже «встро­е­ны» че­ло­ве­че­ские пред­рас­суд­ки.

Вот яркий при­мер из Google Translate: если вы пе­ре­ве­де­те с ан­глий­ско­го на вен­гер­ский фразу «He is a nurse. She is a doctor» (это зна­чит «Он мед­брат, она врач», но в ан­глий­ском, в от­ли­чие от рус­ско­го, у слова nurse нет при­зна­ка пола), а затем пе­ре­ве­де­те ее об­рат­но на ан­глий­ский, она пре­вра­тит­ся в про­ти­во­по­лож­ность, «She’s a nurse. He is a doctor», то есть «Она мед­сест­ра, он врач».

Дело в том, что ал­го­ритм сер­ви­са на­тре­ни­ро­ван на трил­ли­о­нах стра­ниц, и из них он знает, что у врача боль­ше шан­сов быть муж­чи­ной, а мед­сест­ры чаще жен­щи­ны.

Еще одна про­бле­ма — рас­ста­нов­ка весов. Часто при ана­ли­зе дан­ных ИИ, как и люди, «взве­ши­ва­ет» раз­ные па­ра­мет­ры, решая, какие из них важны, а какие нет, и ал­го­ритм может ре­шить, что поч­то­вый ин­декс че­ло­ве­ка, ха­рак­те­ри­зу­ю­щий район про­жи­ва­ния, свя­зан с кре­дит­ным рей­тин­гом, и тем самым пред­ста­ви­те­ли эт­ни­че­ских мень­шинств, жи­ву­щие в бед­ных рай­о­нах, будут до­пол­ни­тель­но дис­кри­ми­ни­ро­ва­ны.

Но ра­сиз­мом и сек­сиз­мом дело не огра­ни­чи­ва­ет­ся — бы­ва­ют предубеж­де­ния, ко­то­рых мы не ожи­да­ем. Ла­у­ре­ат Но­бе­лев­ской пре­мии Да­ни­эль Ка­не­ман, всю жизнь изу­ча­ю­щий че­ло­ве­че­скую ир­ра­ци­о­наль­ность, хо­ро­шо объ­яс­нил суть про­бле­мы в своем ин­тер­вью блогу Freakonomics в 2011 году:

«Если мы поль­зу­ем­ся эв­ри­сти­че­ски­ми обоб­ще­ни­я­ми, они по самой своей при­ро­де неиз­беж­но будут де­мон­стри­ро­вать сме­ще­ния оце­нок, и это спра­вед­ли­во и для че­ло­ве­ка, и для ис­кус­ствен­но­го ин­тел­лек­та — вот толь­ко у ИИ не че­ло­ве­че­ские эв­ри­сти­ки».

Ро­бо­ты на­сту­па­ют, и, ко­неч­но, их при­ход необ­ра­ти­мо из­ме­нит рынок труда, но пока они не на­учат­ся ду­мать как люди, им без нас не обой­тись. Про­сто зав­тра среди наших кол­лег по­явят­ся крем­ни­е­вые эк­зем­пля­ры.

По материалам: ru.insider.pro

Добавить комментарий