Хокинг и Маск: Искусственный интеллект может погубить человечество - Новости в мире финансов и инвестиций | MMGP
Присоединяйтесь к нашему инвестиционному форуму, на котором уже 432,029 пользователей. Чтобы получить доступ ко многим закрытым разделам и начать общение -  .
Вход через:  
Обсуждение новостей, связанных с финансами и инвестициями.
При поддержке
Важная информация
Есть опыт работы с криптовалютами? Заведи Крипто-Блог и заработай на нём!
Торгуешь криптовалютой? Оставь свой отзыв о бирже!
Разбираешься в криптовалюте? Прими участие в акции Крипторайтер 2.0 (2-10 поинтов за 1000 символов)
Изменения в акции "Оплата за сообщения".
Как на одной публикации заработать $100
Ответить
 
Первый пост Опции темы
Сообщения прочитаны и/или просмотрены Сегодня, 08:01
Старый 06.02.2017, 11:50
#1
Профессионал
 
Имя: Влад
Пол: Мужской
Инвестирую в: Стартапы
Регистрация: 22.12.2015
Сообщений: 3,020
Благодарностей: 1,007
УГ: 7
КП: 0.270
Хокинг и Маск: Искусственный интеллект может погубить человечество



Более тысячи экспертов IT-рынка, специалистов в области робототехники, учёных и теоретиков подписали открытое письмо о необходимости введения запрета на наступательное оружие с искусственным интеллектом. Авторы письма говорят, что автономное оружие самостоятельно осуществляет выбор и захват цели, без какого-либо участия со стороны человека. А это может таить огромную опасность для всего населения Земли. Боевые системы с искусственным интеллектом можно рассматривать как третью революцию в военной отрасли — после появления чёрного пороха и ядерных установок.

«В отличие от ядерного оружия, для автономных боевых комплексов не требуются чрезмерно дорогие компоненты или материалы, которые практически невозможно достать. А поэтому такие системы могут стать вездесущими. Это только вопрос времени, когда подобные установки появятся на чёрном рынке, в руках террористов и диктаторов, желающих жёстко контролировать население или проводить этнические чистки», — говорится в открытом письме. Авторы письма признают, что искусственный интеллект и робототехника имеют огромный потенциал по улучшению жизни всего человечества. В то же время использование ИИ в военной сфере должно контролироваться тщательнейшим образом, а автономное наступательное оружие и вовсе следует запретить.

Свои подписи под письмом уже поставили выдающийся британский физик-теоретик и космолог Стивен Хокинг, основатель компаний Tesla и SpaceX Элон Маск, соучредитель компании Apple Computer Стив Возняк, политический публицист, философ и теоретик Аврам Ноам Хомский и многие другие известные личности.

Источник
__________________

Не верьте всему, что вам говорят.
Влад555 вне форума  
Старый 06.02.2017, 12:48
#2
Профессионал
 
Имя: Филипп
Пол: Мужской
Адрес: Киев
Инвестирую в: Стартапы
Регистрация: 29.12.2015
Сообщений: 1,624
Благодарностей: 558
УГ: 2
КП: 0.309
подарки
Re: Хокинг и Маск: Искусственный интеллект может погубить человечество

об этом говорят уже не первый год, и я полностью согласен с мнением подписавших данный документ
BigBoi вне форума  
Старый 06.02.2017, 17:02
#3
Профессионал
 
Имя: Влад
Пол: Мужской
Инвестирую в: Стартапы
Регистрация: 22.12.2015
Сообщений: 3,020
Благодарностей: 1,007
УГ: 7
КП: 0.270
Автор темы Re: Хокинг и Маск: Искусственный интеллект может погубить человечество

Вот тут еще подоспела информация: Великое пробуждение искусственного интеллекта
__________________

Не верьте всему, что вам говорят.
Влад555 вне форума  
Старый 10.02.2017, 19:25
#4
Профессионал
 
Имя: Влад
Пол: Мужской
Инвестирую в: Стартапы
Регистрация: 22.12.2015
Сообщений: 3,020
Благодарностей: 1,007
УГ: 7
КП: 0.270
Автор темы Re: Хокинг и Маск: Искусственный интеллект может погубить человечество

23 принципа искусственного интеллекта, одобренные Стивеном Хокингом и Илоном Маском:
Проблемы исследований

1. Цель исследований. Целью исследований в области искусственного интеллекта должно быть создание не неориентированного, а полезного интеллекта.

2. Финансирование исследований. Инвестиции в ИИ должны сопровождаться финансированием исследований, которые удостоверят его полезное использование, включая острые вопросы в области компьютерных наук, экономики, права, этики и социальных наук, таких как:

Как мы можем сделать будущие ИИ-системы высоконадежными, чтобы они делали то, что хотим мы без сбоев или возможностей для взлома?
Как мы можем двигаться к процветанию через автоматизацию при этом сохраняя человеческие ресурсы и цели?
Как мы можем обновить нашу юридическую систему, чтобы она была более честной и эффективной, соответствовала скорости развития ИИ и управляла рисками, связанными с ним?
Какой набор ценностей должен включать в себя ИИ и какой юридический и этический статус он должен иметь?
3. Связь «наука-политика». Должно существовать конструктивное и здоровое взаимодействие между исследователями ИИ и политиками.

4. Культура исследований. Среди исследователей и разработчиков ИИ должна поддерживаться культура сотрудничества, доверия и прозрачности.

5. Избежание гонки. Команды, разрабатывающие системы ИИ, должны активно сотрудничать и не «срезать углы» в вопросах безопасности.

Этика и ценности

6. Безопасность. Системы искусственного интеллекта должны быть безопасны и защищены на протяжении всего срока эксплуатации. Они также должны быть проверяемы по этим аспектам там, где это применимо и выполнимо.

7. Прозрачность ошибок. Если система ИИ нанесет вред, должно быть возможно установить причину произошедшего.

8. Судебная прозрачность. Любое использование автономной системы для принятия судебных решений должно сопровождаться удовлетворительным объяснением, которое способен проверить компетентное человеческое учреждение.

9. Ответственность. Разработчики и создатели продвинутых систем ИИ являются стейкхолдерами моральных последствий, не добропорядочного использования и других действий действий, с ответственностью и возможностью формировать эти последствия.

10. Согласование ценностей. Высокоавтономные системы ИИ должны проектироваться так, чтобы их цели и поведение согласовывались с человеческими ценностями во всех аспектах их работы.

11. Человеческие ценности. Системы ИИ должны проектироваться и управляться так, чтобы быть совместимыми с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

12. Личная приватность. Люди должны иметь право доступа, управления и контроля данных, которые они генерируют, давая системам ИИ возможность анализировать и использовать эти данные.

13. Свобода и приватность. Применение ИИ к личным данным не должны необоснованно ограничивать реальную или воспринимаемую свободу людей.

14. Общая выгода. Технологии искусственного интеллекта должна приносить пользу и расширять возможности максимально возможного количества людей.

15. Общее процветание. Экономическое процветание, созданное ИИ, должно широко распределяться, чтобы все человечество получало выгоду.

16. Человеческий контроль. Люди должны выбирать как и нужно ли делегировать решения системам ИИ, чтобы достичь выбранных людьми целей.

17. Отсутствие подрывной деятельности. Власть, получаемая с помощью контроля высокоразвитых систем ИИ должна уважать и улучшать, а не подрывать, социальные и гражданские процессы, от которых зависит здоровье общества.

18. Гонка ИИ-вооружений. Гонки вооружений в сфере летального автономного оружия необходимо избежать.

Более долгосрочные проблемы

19. Осторожное отношение к возможностям. Если не найден общий консенсус, мы должны избегать сильных допущений относительно верхних границ будущих возможностей искусственного интеллекта.

20. Важность. Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле и должен планироваться и управляться с соответствующим вниманием и ресурсами.

21. Риски. Риски, связанные с системами ИИ, особенно катастрофические и экзистенциальные риски, должны быть предметом планирования и усилий по предотвращению соизмеримо с ожидаемым от них влиянием.

22. Рекурсивное самоулучшение. Системы ИИ спроектированные для рекурсивного самоулучшения или самовоспроизведения так, что это может привести к быстрому росту качества или количества, должны быть предметом строгих мер безопасности и контроля.

23. Общее благо. Сильный искусственный интеллект должен разрабатываться только во имя служения широко разделяемым этическим идеалам и во благо всего человечества, а не одного государства или организации.
__________________

Не верьте всему, что вам говорят.
Влад555 вне форума  
Ответить
Войдите, чтобы оставить комментарий.
Сообщения прочитаны и/или просмотрены Сегодня, 08:01
Опции темы

Быстрый переход
Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Искусственный интеллект: что у него на уме? ElarGroup3 Новости технологий и интернета 19 19.04.2017 22:13
Элон Маск вместе с партнерами инвестируют $1 млрд в развитие искусственного интеллект kingcasha Новости в мире финансов и инвестиций 2 14.12.2015 02:40
Иeureal:Искусственный интеллект для людей Alex077 Новости в мире финансов и инвестиций 0 09.09.2015 15:41
Блокчейн и искусственный интеллект Frend Новости криптовалют 0 02.06.2015 01:18


Случайные темы
Аватар Влад555
"Укрпочта" планирует завести в Украину "Amazon" к концу года
От Влад555 в разделе «Новости в мире финансов и инвестиций»
Аватара нет
Мини-прогноз.
От Infernol в разделе «Прогнозы от пользователей»
Аватар Karim
Oil Partners - oilpartners.net
От Karim в разделе «Архив: Список проблемных/неактивных/закрытых программ»
Аватар Knjaz
q-go.biz - Q-Go
От Knjaz в разделе «Архив: Список проблемных/неактивных/закрытых программ»
Аватар moskva
Сколько украинцы переплачивают за газ - эксперт
От moskva в разделе «Новости в мире финансов и инвестиций»
Аватар all-hyips
Bit-Protect - bit-protect.com
От all-hyips в разделе «Архив: Список проблемных/неактивных/закрытых программ»
.     
Пользователей
432,029
Тем
500,955
Сообщений
12,556,914

mmgp.telegram