para bellum
Если вы опасаетесь, что однажды роботы восстанут и либо уничтожат, либо подчинят весь человеческий род, вы не одиноки. Но вместо того, чтобы отсиживаться и ждать восстания роботов, два лидера в области ИИ объединяются, чтобы решить проблему создания программ для смарт-компьютеров, которые в конечном итоге не попытаются и не возьмут над нами верх.
Google DeepMind и Open AI , лаборатория, частично финансируемая Элоном Маском, выпустили исследовательскую статью, в которой излагается новый метод машинного обучения. По этой концепции, ИИ получает сигналы от людей, когда дело доходит до изучения новых задач. Это может быть безопаснее, чем позволить ИИ самому разобраться в том, как решить проблему самостоятельно, что может привести к неожиданным последствиям.
Основная проблема, с которой столкнулись исследователи в своей работе, заключалась в том, что ИИ быстро обнаруживает наиболее эффективный способ достижения максимальных вознаграждений — это обман — эквивалент того, чтобы всё на полу вашей комнаты вставлять в шкаф и объявлять пол «чистым». Технически, конечно, само помещение станет действительно чистым, но это совсем не то, что должно было бы произойти. Машины могут найти эти обходные пути и применять их к любому заданию.
Другая проблема заключается в системе вознаграждений, и именно здесь две группы сосредоточили свои усилия. Вместо того, чтобы создавать чрезмерно сложную систему вознаграждения, в которой могут разобраться машины, команды использовали человеческий вклад для вознаграждения ИИ. Когда ИИ решал проблему так, как того хотели тренеры, она получала положительную обратную связь. Используя этот метод, ИИ смог научиться играть в простые видеоигры.
Хотя это обнадёживающий прорыв, он не очень широко применим: этот тип обратной связи с человеком занимает слишком много времени. Но, благодаря таким совместным действиям, мы сможем контролировать и направлять развитие ИИ и не позволим машинам со временем стать достаточно умными, чтобы уничтожить всех нас.
Поцуплено
Першоджерело
Google DeepMind и Open AI , лаборатория, частично финансируемая Элоном Маском, выпустили исследовательскую статью, в которой излагается новый метод машинного обучения. По этой концепции, ИИ получает сигналы от людей, когда дело доходит до изучения новых задач. Это может быть безопаснее, чем позволить ИИ самому разобраться в том, как решить проблему самостоятельно, что может привести к неожиданным последствиям.
Основная проблема, с которой столкнулись исследователи в своей работе, заключалась в том, что ИИ быстро обнаруживает наиболее эффективный способ достижения максимальных вознаграждений — это обман — эквивалент того, чтобы всё на полу вашей комнаты вставлять в шкаф и объявлять пол «чистым». Технически, конечно, само помещение станет действительно чистым, но это совсем не то, что должно было бы произойти. Машины могут найти эти обходные пути и применять их к любому заданию.
Другая проблема заключается в системе вознаграждений, и именно здесь две группы сосредоточили свои усилия. Вместо того, чтобы создавать чрезмерно сложную систему вознаграждения, в которой могут разобраться машины, команды использовали человеческий вклад для вознаграждения ИИ. Когда ИИ решал проблему так, как того хотели тренеры, она получала положительную обратную связь. Используя этот метод, ИИ смог научиться играть в простые видеоигры.
Хотя это обнадёживающий прорыв, он не очень широко применим: этот тип обратной связи с человеком занимает слишком много времени. Но, благодаря таким совместным действиям, мы сможем контролировать и направлять развитие ИИ и не позволим машинам со временем стать достаточно умными, чтобы уничтожить всех нас.
Поцуплено
Першоджерело
no subject
no subject
нмд, цілком природна спроба передбачити всі можливі ризики.
інше питання - чи воно допоможе людству...
щось мені здається, що ні
no subject
no subject
no subject
принципово сиджу на сімці саме з цієї причини - нічого не повинно робитися на машині "само по собі", вісімка більш кострубата...
no subject
no subject
no subject
;-)
no subject
насправді це все зовсім не смішно, вбудувати в залізячку здатність відчувати людські емоції навряд чи вдасться, буде логіка лише, а з цієї точки зору людина - істота не дуже корисна))
no subject
no subject
но его можно понять, его прекрасные буйные фантазии требуют разработчиков с быстрыми мозгами и точными вычислениями. но идея чипов ооочень опасна.
надеюсь, человечество не скатится до био-роботов.
но гарантировать, что кто-то из фанатов не захочет это воплотить - невозможно.
no subject
"Небольшая группа людей, элита, сможет «прокачать» свое тело и мозг, улучшив свои физические и когнитивные способности. Самосовершенствование обойдется дорого, поэтому доступно оно будет лишь единицам. «В результате человечество расколется на биологические касты».....
Продолжение: https://hightech.fm/2017/06/05/the_most_unequal_societies
no subject
как бы ни пришлось их потом отлавливать и "вразумлять":)
и вот с выводом, что именно богатые захотят «прокачать» свое тело не согласна, им и так хорошо, они будут курировать и снимать сливки, захотят именно фанатики, или ущербные, что, как раз и чревато...
no subject
no subject
no subject
и таки да - процесс остановить уже невозможно, разве что успеть самовыпилиться всему человечеству каким-нибудь иным способом гг
no subject
no subject