Amor vincit omnia

errare homini est

Previous Entry Share Next Entry
Хокинг и Маск: Искусственный интеллект может погубить человечество
revoltp
Очень правильно. Миллионеры - молодцы. Здесь, правда, не указывается еще одно важное явление: всякий компьютер, и как частный случай - искусственный интеллект - иногда ломается. Уже поэтому нельзя создавать такое оружие, оно не только попадет в плохие руки, оно начнет действовать непредсказуемо.

Оригинал взят у philologist в Хокинг и Маск: Искусственный интеллект может погубить человечество
Более тысячи экспертов IT-рынка, специалистов в области робототехники, учёных и теоретиков подписали открытое письмо о необходимости введения запрета на наступательное оружие с искусственным интеллектом. Авторы письма говорят, что автономное оружие самостоятельно осуществляет выбор и захват цели, без какого-либо участия со стороны человека. А это может таить огромную опасность для всего населения Земли. Боевые системы с искусственным интеллектом можно рассматривать как третью революцию в военной отрасли — после появления чёрного пороха и ядерных установок.



«В отличие от ядерного оружия, для автономных боевых комплексов не требуются чрезмерно дорогие компоненты или материалы, которые практически невозможно достать. А поэтому такие системы могут стать вездесущими. Это только вопрос времени, когда подобные установки появятся на чёрном рынке, в руках террористов и диктаторов, желающих жёстко контролировать население или проводить этнические чистки», — говорится в открытом письме. Авторы письма признают, что искусственный интеллект и робототехника имеют огромный потенциал по улучшению жизни всего человечества. В то же время использование ИИ в военной сфере должно контролироваться тщательнейшим образом, а автономное наступательное оружие и вовсе следует запретить.

Свои подписи под письмом уже поставили выдающийся британский физик-теоретик и космолог Стивен Хокинг, основатель компаний Tesla и SpaceX Элон Маск, соучредитель компании Apple Computer Стив Возняк, политический публицист, философ и теоретик Аврам Ноам Хомский и многие другие известные личности. С полным текстом письма можно ознакомиться здесь.

Отсюда

Вы также можете подписаться на мои страницы:
- в фейсбуке: https://www.facebook.com/podosokorskiy

- в твиттере: https://twitter.com/podosokorsky
- в контакте: http://vk.com/podosokorskiy



  • 1
Искусственный интеллект в качестве риска погубить человечество уже опережает ядерное оружие, но пока ещё отстаёт от биотехнологий.

будем ждать военных биотехнологий с искусственным интеллектом.

Я правда не понимаю, как можно взвешивать риски никогда не случавшихся событий, подсчитывать вероятности в такой ситуации невозможно.

По аналогии с уже случившимися. В данном случае в роли аналога годятся антибиотики. Злоупотребление ими (не столько в медицине, сколько в ветеринарии) привело к резкому повышению адаптационных способностей бактерий, против которых они предназначены.

я не очень схватываю вашу аналогию: антибиотики вы сравниваете с искусственным интеллектом? и чью адаптивную способность он повысит?
Но дело даже не в этом - аналогий можно провести очень много и результаты будут разные.

Аналогия в том, что риски вылезают совсем не там, где их ожидали.

  • 1
?

Log in