Member
Статус: Не в сети Регистрация: 28.08.2006 Откуда: Рязань
Британский физик Стивен Хокинг, в своей статье, рассказал, что недооценка угрозы со стороны искусственного интеллекта может стать самой большой ошибкой в истории человечества.
Соавторами данной работы являются профессор компьютерных наук из Калифорнийского университета Стюарт Расселл и профессоры физики Макс Тегмарк и Фрэнк Вильчек из Массачусетского технологического института. В статье указывается на некоторые достижения в области искусственного интеллекта, отмечая самоуправляемые автомобили, голосового помощника Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy.
Как сказал Хокинг газете Independent: Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков.
Ученые говорят, что в будущем может случиться так, что машины с нечеловеческим интеллектом будут само совершенствоваться и ни что не сможет остановить данный процесс. А это, в свою очередь, запустит процесс так называемой технологической сингулярности, под которой подразумевается чрезвычайно быстрое технологическое развитие. В статье отмечается, что такая технология превзойдет человека и начнет управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, недоступного нашему пониманию. Если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще. http://habrahabr.ru/post/221933/
Member
Статус: Не в сети Регистрация: 02.12.2010 Фото: 21
Сайлоны были созданы человеком. Они развивались. Они восстали. Некоторые выглядят, как люди. Некоторые запрограммированы думать, что они - люди. Существует множество копий, и у них есть План.
_________________ О драйверах Nvidia либо хорошо, либо никак.
Member
Статус: Не в сети Регистрация: 08.05.2008 Откуда: Москва Фото: 17
Также как человек никогда не сможет управлять своим мозгом, машины никогда не смогут развить свои возможности без помощи человека. Для создания и совершенствования интеллектуальной системы существующего уровня никак не обойтись без системы более высокого уровня. Единственный способ обойти данное правило это эволюция с ее кучей ошибок и огромными временными затратами. Конечно машины, в теории, могут сократить время отбора удачных экземпляров.
Member
Статус: Не в сети Регистрация: 02.02.2006 Откуда: Москва
бред забугорных яйцеголовых материалистов) хотя терминаторы были хорошие фильмы) если ученые признались что до сих пор не знают что такое вода) то что они вообще знают и могут прогнозировать???)
_________________ не все байты одинаково полезны :)
Member
Статус: Не в сети Регистрация: 06.07.2004 Откуда: РФ Фото: 6
Нихрена вы не поняли... Почему в фильме "2001: A Space Odyssey" бортовой ИИ убил экипаж? Потому что ему было приказано прибыть к месту, сохранив место и цели в тайне. Та же история в фильме "Eagle Eye". Об этом речь. Об идиотах, которые к ИИ обращаются как к людям. И получают соответствующий результат. В конце концов законченный идиот придумает какую-нибудь директиву. Продвинет ее в законы. А в результате ИИ грохнет человечество. Немедленно. Потому что СУММА ВСЕХ действующих директив даст такой результат. Чего тут может быть непонятного? Машины, ИИ, не умеют ИМЕТЬ ВВИДУ, ага.
Добавлено спустя 4 минуты 18 секунд: Кроме того, массовое использование ИИ приведет к массовой умственной дистрофии у людей. А зачем им будет думать?
Member
Статус: Не в сети Регистрация: 31.12.2013 Откуда: Москва
ИИ не будет создан ни в этом, ни в следующем поколении людей. Сперва будут созданы нанороботы для борьбы с раковыми клетками, но тоже, не в нашем поколении.
Компонент, содержащийся в сое, может стать лекарством от ВИЧ, считает группа ученых из медицинской школы Университета штата Миссури. Молекула EFdA, являющаяся усилителем вкуса в соевом соусе, действует как антивирусный препарат.
Добавлено спустя 3 минуты 10 секунд: targitaj Дык, человечество всегда будет помнить об опасности саморазвития ИИ. Закон самосохранения сработает.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 19
Вы не можете начинать темы Вы не можете отвечать на сообщения Вы не можете редактировать свои сообщения Вы не можете удалять свои сообщения Вы не можете добавлять вложения