Хокинг и Маск: Искусственный интеллект может погубить человечество - Новости в мире финансов и инвестиций | MMGP
Присоединяйтесь к нашему инвестиционному форуму, на котором уже 457,258 пользователей. Чтобы получить доступ ко многим закрытым разделам и начать общение -  .
Вход через:  
Обсуждение новостей, связанных с финансами и инвестициями.
При поддержке
Важная информация
Узнай, кто стал "Бизнес-леди MMGP-2018"
Внимание! Акция для копирайтеров: ЭПС-эксперт (2-10 поинтов за 1000 символов)
Есть опыт работы с криптовалютами? Заведи Крипто-Блог и заработай на нём!
Торгуешь криптовалютой? Оставь свой отзыв о бирже!
Разбираешься в криптовалюте? Прими участие в акции Крипторайтер 2.0 (2-10 поинтов за 1000 символов)
Изменения в акции "Оплата за сообщения".
Как на одной публикации заработать $100
Ответить
 
Первый пост Опции темы
Сообщения прочитаны и/или просмотрены Сегодня, 23:26
Старый 06.02.2017, 10:50
#1
Мастер
 
Имя: Влад
Пол: Мужской
Инвестирую в: Стартапы
Регистрация: 22.12.2015
Сообщений: 3,081
Благодарностей: 1,039
УГ: 7
КП: 0.271
Хокинг и Маск: Искусственный интеллект может погубить человечество



Более тысячи экспертов IT-рынка, специалистов в области робототехники, учёных и теоретиков подписали открытое письмо о необходимости введения запрета на наступательное оружие с искусственным интеллектом. Авторы письма говорят, что автономное оружие самостоятельно осуществляет выбор и захват цели, без какого-либо участия со стороны человека. А это может таить огромную опасность для всего населения Земли. Боевые системы с искусственным интеллектом можно рассматривать как третью революцию в военной отрасли — после появления чёрного пороха и ядерных установок.

«В отличие от ядерного оружия, для автономных боевых комплексов не требуются чрезмерно дорогие компоненты или материалы, которые практически невозможно достать. А поэтому такие системы могут стать вездесущими. Это только вопрос времени, когда подобные установки появятся на чёрном рынке, в руках террористов и диктаторов, желающих жёстко контролировать население или проводить этнические чистки», — говорится в открытом письме. Авторы письма признают, что искусственный интеллект и робототехника имеют огромный потенциал по улучшению жизни всего человечества. В то же время использование ИИ в военной сфере должно контролироваться тщательнейшим образом, а автономное наступательное оружие и вовсе следует запретить.

Свои подписи под письмом уже поставили выдающийся британский физик-теоретик и космолог Стивен Хокинг, основатель компаний Tesla и SpaceX Элон Маск, соучредитель компании Apple Computer Стив Возняк, политический публицист, философ и теоретик Аврам Ноам Хомский и многие другие известные личности.

Источник
__________________

Не верьте всему, что вам говорят.
Влад555 вне форума  
Старый 06.02.2017, 11:48
#2
Мастер
 
Имя: Филипп
Пол: Мужской
Адрес: Киев
Инвестирую в: Стартапы
Регистрация: 29.12.2015
Сообщений: 1,770
Благодарностей: 643
УГ: 2
КП: 0.335
подарки
Re: Хокинг и Маск: Искусственный интеллект может погубить человечество

об этом говорят уже не первый год, и я полностью согласен с мнением подписавших данный документ
BigBoi вне форума  
Старый 06.02.2017, 16:02
#3
Мастер
 
Имя: Влад
Пол: Мужской
Инвестирую в: Стартапы
Регистрация: 22.12.2015
Сообщений: 3,081
Благодарностей: 1,039
УГ: 7
КП: 0.271
Автор темы Re: Хокинг и Маск: Искусственный интеллект может погубить человечество

Вот тут еще подоспела информация: Великое пробуждение искусственного интеллекта
__________________

Не верьте всему, что вам говорят.
Влад555 вне форума  
Старый 10.02.2017, 18:25
#4
Мастер
 
Имя: Влад
Пол: Мужской
Инвестирую в: Стартапы
Регистрация: 22.12.2015
Сообщений: 3,081
Благодарностей: 1,039
УГ: 7
КП: 0.271
Автор темы Re: Хокинг и Маск: Искусственный интеллект может погубить человечество

23 принципа искусственного интеллекта, одобренные Стивеном Хокингом и Илоном Маском:
Проблемы исследований

1. Цель исследований. Целью исследований в области искусственного интеллекта должно быть создание не неориентированного, а полезного интеллекта.

2. Финансирование исследований. Инвестиции в ИИ должны сопровождаться финансированием исследований, которые удостоверят его полезное использование, включая острые вопросы в области компьютерных наук, экономики, права, этики и социальных наук, таких как:

Как мы можем сделать будущие ИИ-системы высоконадежными, чтобы они делали то, что хотим мы без сбоев или возможностей для взлома?
Как мы можем двигаться к процветанию через автоматизацию при этом сохраняя человеческие ресурсы и цели?
Как мы можем обновить нашу юридическую систему, чтобы она была более честной и эффективной, соответствовала скорости развития ИИ и управляла рисками, связанными с ним?
Какой набор ценностей должен включать в себя ИИ и какой юридический и этический статус он должен иметь?
3. Связь «наука-политика». Должно существовать конструктивное и здоровое взаимодействие между исследователями ИИ и политиками.

4. Культура исследований. Среди исследователей и разработчиков ИИ должна поддерживаться культура сотрудничества, доверия и прозрачности.

5. Избежание гонки. Команды, разрабатывающие системы ИИ, должны активно сотрудничать и не «срезать углы» в вопросах безопасности.

Этика и ценности

6. Безопасность. Системы искусственного интеллекта должны быть безопасны и защищены на протяжении всего срока эксплуатации. Они также должны быть проверяемы по этим аспектам там, где это применимо и выполнимо.

7. Прозрачность ошибок. Если система ИИ нанесет вред, должно быть возможно установить причину произошедшего.

8. Судебная прозрачность. Любое использование автономной системы для принятия судебных решений должно сопровождаться удовлетворительным объяснением, которое способен проверить компетентное человеческое учреждение.

9. Ответственность. Разработчики и создатели продвинутых систем ИИ являются стейкхолдерами моральных последствий, не добропорядочного использования и других действий действий, с ответственностью и возможностью формировать эти последствия.

10. Согласование ценностей. Высокоавтономные системы ИИ должны проектироваться так, чтобы их цели и поведение согласовывались с человеческими ценностями во всех аспектах их работы.

11. Человеческие ценности. Системы ИИ должны проектироваться и управляться так, чтобы быть совместимыми с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

12. Личная приватность. Люди должны иметь право доступа, управления и контроля данных, которые они генерируют, давая системам ИИ возможность анализировать и использовать эти данные.

13. Свобода и приватность. Применение ИИ к личным данным не должны необоснованно ограничивать реальную или воспринимаемую свободу людей.

14. Общая выгода. Технологии искусственного интеллекта должна приносить пользу и расширять возможности максимально возможного количества людей.

15. Общее процветание. Экономическое процветание, созданное ИИ, должно широко распределяться, чтобы все человечество получало выгоду.

16. Человеческий контроль. Люди должны выбирать как и нужно ли делегировать решения системам ИИ, чтобы достичь выбранных людьми целей.

17. Отсутствие подрывной деятельности. Власть, получаемая с помощью контроля высокоразвитых систем ИИ должна уважать и улучшать, а не подрывать, социальные и гражданские процессы, от которых зависит здоровье общества.

18. Гонка ИИ-вооружений. Гонки вооружений в сфере летального автономного оружия необходимо избежать.

Более долгосрочные проблемы

19. Осторожное отношение к возможностям. Если не найден общий консенсус, мы должны избегать сильных допущений относительно верхних границ будущих возможностей искусственного интеллекта.

20. Важность. Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле и должен планироваться и управляться с соответствующим вниманием и ресурсами.

21. Риски. Риски, связанные с системами ИИ, особенно катастрофические и экзистенциальные риски, должны быть предметом планирования и усилий по предотвращению соизмеримо с ожидаемым от них влиянием.

22. Рекурсивное самоулучшение. Системы ИИ спроектированные для рекурсивного самоулучшения или самовоспроизведения так, что это может привести к быстрому росту качества или количества, должны быть предметом строгих мер безопасности и контроля.

23. Общее благо. Сильный искусственный интеллект должен разрабатываться только во имя служения широко разделяемым этическим идеалам и во благо всего человечества, а не одного государства или организации.
__________________

Не верьте всему, что вам говорят.
Влад555 вне форума  
Ответить
Войдите, чтобы оставить комментарий.
Сообщения прочитаны и/или просмотрены Сегодня, 23:26
Опции темы

Быстрый переход
Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Искусственный интеллект: что у него на уме? ElarGroup3 Новости технологий и интернета 19 19.04.2017 21:13
Элон Маск вместе с партнерами инвестируют $1 млрд в развитие искусственного интеллект kingcasha Новости в мире финансов и инвестиций 2 14.12.2015 01:40
Иeureal:Искусственный интеллект для людей Alex077 Новости в мире финансов и инвестиций 0 09.09.2015 14:41
Блокчейн и искусственный интеллект Frend Новости криптовалют 0 02.06.2015 00:18


Случайные темы
Аватар vo888
Horse Racing(Скачки)
От vo888 в разделе «Стратегии и прогнозы»
Аватар Koster_2
Mono Kaj - Monokaj.com
От Koster_2 в разделе «Архив: Список проблемных/неактивных/закрытых программ»
Аватар putoran
Евросеть может прекратить существование.
От putoran в разделе «Политика и экономика»
Аватар ГераЯ
Binance – Как купить и продать монеты, ордера и прочие нюансы торговли
От ГераЯ в разделе «Общие вопросы работы криптобирж»
Аватара нет
Фьючерсы
От Arsin в разделе «Фьючерсы, опционы, векселя и облигации»
Аватар DenisDikanov
chance4all.me — Chance4All
От DenisDikanov в разделе «Архив: Список проблемных/неактивных/закрытых программ»
.     
Пользователей
457,258
Тем
535,006
Сообщений
13,477,182

mmgp.telegram