para bellum
Jul. 10th, 2017 10:46 pm![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Если вы опасаетесь, что однажды роботы восстанут и либо уничтожат, либо подчинят весь человеческий род, вы не одиноки. Но вместо того, чтобы отсиживаться и ждать восстания роботов, два лидера в области ИИ объединяются, чтобы решить проблему создания программ для смарт-компьютеров, которые в конечном итоге не попытаются и не возьмут над нами верх.
Google DeepMind и Open AI , лаборатория, частично финансируемая Элоном Маском, выпустили исследовательскую статью, в которой излагается новый метод машинного обучения. По этой концепции, ИИ получает сигналы от людей, когда дело доходит до изучения новых задач. Это может быть безопаснее, чем позволить ИИ самому разобраться в том, как решить проблему самостоятельно, что может привести к неожиданным последствиям.
Основная проблема, с которой столкнулись исследователи в своей работе, заключалась в том, что ИИ быстро обнаруживает наиболее эффективный способ достижения максимальных вознаграждений — это обман — эквивалент того, чтобы всё на полу вашей комнаты вставлять в шкаф и объявлять пол «чистым». Технически, конечно, само помещение станет действительно чистым, но это совсем не то, что должно было бы произойти. Машины могут найти эти обходные пути и применять их к любому заданию.
Другая проблема заключается в системе вознаграждений, и именно здесь две группы сосредоточили свои усилия. Вместо того, чтобы создавать чрезмерно сложную систему вознаграждения, в которой могут разобраться машины, команды использовали человеческий вклад для вознаграждения ИИ. Когда ИИ решал проблему так, как того хотели тренеры, она получала положительную обратную связь. Используя этот метод, ИИ смог научиться играть в простые видеоигры.
Хотя это обнадёживающий прорыв, он не очень широко применим: этот тип обратной связи с человеком занимает слишком много времени. Но, благодаря таким совместным действиям, мы сможем контролировать и направлять развитие ИИ и не позволим машинам со временем стать достаточно умными, чтобы уничтожить всех нас.
Поцуплено
Першоджерело
Google DeepMind и Open AI , лаборатория, частично финансируемая Элоном Маском, выпустили исследовательскую статью, в которой излагается новый метод машинного обучения. По этой концепции, ИИ получает сигналы от людей, когда дело доходит до изучения новых задач. Это может быть безопаснее, чем позволить ИИ самому разобраться в том, как решить проблему самостоятельно, что может привести к неожиданным последствиям.
Основная проблема, с которой столкнулись исследователи в своей работе, заключалась в том, что ИИ быстро обнаруживает наиболее эффективный способ достижения максимальных вознаграждений — это обман — эквивалент того, чтобы всё на полу вашей комнаты вставлять в шкаф и объявлять пол «чистым». Технически, конечно, само помещение станет действительно чистым, но это совсем не то, что должно было бы произойти. Машины могут найти эти обходные пути и применять их к любому заданию.
Другая проблема заключается в системе вознаграждений, и именно здесь две группы сосредоточили свои усилия. Вместо того, чтобы создавать чрезмерно сложную систему вознаграждения, в которой могут разобраться машины, команды использовали человеческий вклад для вознаграждения ИИ. Когда ИИ решал проблему так, как того хотели тренеры, она получала положительную обратную связь. Используя этот метод, ИИ смог научиться играть в простые видеоигры.
Хотя это обнадёживающий прорыв, он не очень широко применим: этот тип обратной связи с человеком занимает слишком много времени. Но, благодаря таким совместным действиям, мы сможем контролировать и направлять развитие ИИ и не позволим машинам со временем стать достаточно умными, чтобы уничтожить всех нас.
Поцуплено
Першоджерело
no subject
Date: 2017-07-10 08:07 pm (UTC)no subject
Date: 2017-07-10 08:23 pm (UTC)нмд, цілком природна спроба передбачити всі можливі ризики.
інше питання - чи воно допоможе людству...
щось мені здається, що ні
no subject
Date: 2017-07-10 10:22 pm (UTC)no subject
Date: 2017-07-10 08:56 pm (UTC)no subject
Date: 2017-07-11 04:25 am (UTC)принципово сиджу на сімці саме з цієї причини - нічого не повинно робитися на машині "само по собі", вісімка більш кострубата...
no subject
Date: 2017-07-11 10:06 am (UTC)no subject
Date: 2017-07-11 03:38 pm (UTC)no subject
Date: 2017-07-10 09:45 pm (UTC);-)
no subject
Date: 2017-07-11 04:33 am (UTC)насправді це все зовсім не смішно, вбудувати в залізячку здатність відчувати людські емоції навряд чи вдасться, буде логіка лише, а з цієї точки зору людина - істота не дуже корисна))
no subject
Date: 2017-07-11 08:41 am (UTC)no subject
Date: 2017-07-11 11:49 am (UTC)но его можно понять, его прекрасные буйные фантазии требуют разработчиков с быстрыми мозгами и точными вычислениями. но идея чипов ооочень опасна.
надеюсь, человечество не скатится до био-роботов.
но гарантировать, что кто-то из фанатов не захочет это воплотить - невозможно.
no subject
Date: 2017-07-11 01:41 pm (UTC)"Небольшая группа людей, элита, сможет «прокачать» свое тело и мозг, улучшив свои физические и когнитивные способности. Самосовершенствование обойдется дорого, поэтому доступно оно будет лишь единицам. «В результате человечество расколется на биологические касты».....
Продолжение: https://hightech.fm/2017/06/05/the_most_unequal_societies
no subject
Date: 2017-07-11 01:51 pm (UTC)как бы ни пришлось их потом отлавливать и "вразумлять":)
и вот с выводом, что именно богатые захотят «прокачать» свое тело не согласна, им и так хорошо, они будут курировать и снимать сливки, захотят именно фанатики, или ущербные, что, как раз и чревато...
no subject
Date: 2017-07-11 01:59 pm (UTC)no subject
Date: 2017-07-11 03:45 pm (UTC)no subject
Date: 2017-07-11 03:36 pm (UTC)и таки да - процесс остановить уже невозможно, разве что успеть самовыпилиться всему человечеству каким-нибудь иным способом гг
no subject
Date: 2017-07-11 03:43 pm (UTC)no subject
Date: 2017-07-11 05:04 pm (UTC)