HOME    FORUMS    MEMBERS    RECENT POSTS    LOG IN  
Баннер 1   Баннер 2

ANTICHAT — форум по информационной безопасности, OSINT и технологиям

ANTICHAT — русскоязычное сообщество по безопасности, OSINT и программированию. Форум ранее работал на доменах antichat.ru, antichat.com и antichat.club, и теперь снова доступен на новом адресе — forum.antichat.xyz.
Форум восстановлен и продолжает развитие: доступны архивные темы, добавляются новые обсуждения и материалы.
⚠️ Старые аккаунты восстановить невозможно — необходимо зарегистрироваться заново.
Вернуться   Форум АНТИЧАТ > ИНФО > Мировые новости. Обсуждения.
   
Ответ
 
Опции темы Поиск в этой теме Опции просмотра

  #1  
Старый 04.12.2014, 14:50
cr1tex
Guest
Сообщений: n/a
Провел на форуме:
27884

Репутация: -4
По умолчанию

Попытки создания "думающих" машин могут представлять угрозу для существования человеческого рода. Такое мнение выразил выдающийся британский ученый Стивен Хокинг — известный физик, который почти полностью парализован из-за прогрессирующей болезни двигательного нейрона.

"Люди, которые ограничены медленной биологической эволюцией, не смогут конкурировать и будут вытеснены, — предупредил он в интервью BBC, — Создание полного искусственного интеллекта может привести к концу человеческой расы".



Примитивные формы ИИ, которые уже разработаны к сегодняшнему дню, оказались очень полезны, сказал физик. Тем не менее, он опасается последствий создания нечто более "умного". По мнению Хокинга, такая машина сможет существовать сама по себе, без участия человека, и совершенствовать себя со всевозрастающей скоростью.

Угрозу в появлении ИИ видят и другие ученые. Недавно глава компаний SpaceX и Tesla Motors Элон Маск также назвал попытки создать "мыслящий" компьютер "крупнейшей проблемой, угрожающей существованию человечества". Бизнесмен предупредил, что к разработке ИИ нужно подходить "очень осторожно". По мнению Маска, этот процесс должен строго регулироваться: "как на государственном, так и международном уровнях — просто чтобы удостовериться, что мы не делаем чего-то очень глупого".​

03.12.2014 | 19:23

http://hitech.vesti.ru/news/view/id/6110
 
Ответить с цитированием

  #2  
Старый 04.12.2014, 16:16
NekoKoneko
Guest
Сообщений: n/a
Провел на форуме:
58053

Репутация: 20
По умолчанию

Это не угроза, а эволюция. Биологическое развитие достигло своего потолка в виде человека, дальше уже некуда. Сейчас происходит качественный рывок вперед, от людей к разумным машинам, точно так же, как в свое время были качественным рывком в эволюции теплокровные животные.
 
Ответить с цитированием

  #3  
Старый 04.12.2014, 17:54
trolex
Новичок
Регистрация: 06.12.2009
Сообщений: 1
Провел на форуме:
21821

Репутация: 0
По умолчанию

Цитата:
Сообщение от NekoKoneko  
NekoKoneko said:
Это не угроза, а эволюция. Биологическое развитие достигло своего потолка в виде человека, дальше уже некуда. Сейчас происходит качественный рывок вперед, от людей к разумным машинам, точно так же, как в свое время были качественным рывком в эволюции теплокровные животные.
верно, наконец то на земле появится действительно разумная жизнь, умная, свободная от эмоций и прочих костылей эволюции, человек выполнил свою роль в эволюции, и может спокойно умереть, как вымерли динозавры и австралопитеки,

но и шансы уничтожения мира велики, особенно если ии попадёт в нехорошие руки, которые его запрограммируют и будут использовать его в целях захвата власти на планете, а если у нескольких сразу будет развитый ии, может начаться война между ними
 
Ответить с цитированием

  #4  
Старый 04.12.2014, 18:06
Adio
Постоянный
Регистрация: 23.05.2005
Сообщений: 617
Провел на форуме:
1262031

Репутация: 71


По умолчанию

Цитата:
Сообщение от trolex  
trolex said:
верно, наконец то на земле появится действительно разумная жизнь, умная, свободная от эмоций и прочих костылей эволюции, человек выполнил свою роль в эволюции, и может спокойно умереть, как вымерли динозавры и австралопитеки,
но и шансы уничтожения мира велики, особенно если ии попадёт в нехорошие руки, которые его запрограммируют и будут использовать его в целях захвата власти на планете, а если у нескольких сразу будет развитый ии, может начаться война между ними
Вероятней что все пройдутисцеление огнем, нежели их убьет робокоп на пару с терминатором Вот после исцеление все встанет на свои места.
 
Ответить с цитированием

  #5  
Старый 04.12.2014, 18:52
NekoKoneko
Guest
Сообщений: n/a
Провел на форуме:
58053

Репутация: 20
По умолчанию

Цитата:
Сообщение от None  
может начаться война между ними
Наврядли. Смысл войны у людей - передел власти, а стремление к власти - биологический элемент поведения, доставшийся в наследство от социальных животных типа макак, обеспечивающий выборку лучших генов. Оттуда же стремление схватить кусок больше, чем можешь съесть, потому что в следующий раз этого куска может не быть. Добавь к этому страх смерти, то есть инстинкт самосохранения, получаем все условия для войн. ИИ не имеет биологических программ ни для власти, ни для жадности, ни для размножения - для чего воевать?

Интересен вопрос другой: а что будет следующей ступенькой после разумных машин? Единый гипер-разум с кучей физических тел?
 
Ответить с цитированием

  #6  
Старый 04.12.2014, 18:57
Кот в сапога
Guest
Сообщений: n/a
Провел на форуме:
732

Репутация: 0
По умолчанию

от людей к разумным машинам

_______

Эволюция человека с помощью машин. Интеграция с машиной.

ru.wikipedia.org/wiki/Загрузка_сознания
 
Ответить с цитированием

  #7  
Старый 04.12.2014, 20:30
\/IRUS
Guest
Сообщений: n/a
Провел на форуме:
118953

Репутация: 37
По умолчанию

Цитата:
Сообщение от Adio  
Adio said:
Вероятней что все пройдут
исцеление огнем
, нежели их убьет робокоп на пару с терминатором
Вот после исцеление все встанет на свои места.
ИИ, заклинаю тебя, убей муху!

По теме: ИИ человека не сможет превзойти, потому что человек это развивающийся ИИ, более эффективный ИИ
 
Ответить с цитированием

  #8  
Старый 04.12.2014, 21:14
NekoKoneko
Guest
Сообщений: n/a
Провел на форуме:
58053

Репутация: 20
По умолчанию

Сможет, потому что избавлен от биопроблем и обусловленных ими общественных заморочек, из-за которых мы теряем львиную долю и без того короткой жизни (еда, сон, лень, половые проблемы, мораль, вера, и т.д.) плюс он масштабируем. Вопрос в том,что это будет нечто иное, не-человеческая сущность.
 
Ответить с цитированием

  #9  
Старый 04.12.2014, 22:29
\/IRUS
Guest
Сообщений: n/a
Провел на форуме:
118953

Репутация: 37
По умолчанию

Цитата:
Сообщение от NekoKoneko  
NekoKoneko said:
Сможет, потому что избавлен от биопроблем и обусловленных ими общественных заморочек, из-за которых мы теряем львиную долю и без того короткой жизни (еда, сон, лень, половые проблемы, мораль, вера, и т.д.) плюс он масштабируем. Вопрос в том,что это будет нечто иное, не-человеческая сущность.
Ему нужны эти заморочки, потому что нейронный интеллект на котором основан ИИ сам себя уничтожает в результате самопознания

Если бы вы учились со мной на факультете то знали бы это.

Нет сейчас ИИ круче жабы, и тем более человека!
 
Ответить с цитированием

  #10  
Старый 04.12.2014, 23:06
KIR@PRO
Постоянный
Регистрация: 26.12.2007
Сообщений: 353
Провел на форуме:
905389

Репутация: 332
Отправить сообщение для KIR@PRO с помощью ICQ
По умолчанию

Цитата:
Сообщение от None  
и тем более человека!
Эммм, в отдельных аспектах - соглашусь, есть превосходящие. А в целом как интеллект - нет. Мозг делает слишком много операций в секунду, и любой из суперкомпьютеров пока не в состоянии на такие же вычисления. Минус техники в том, что она не динамична, она завязана в своей форме и логике, именно поверх неё создается "интеллект", что влечет за собой колоссальные накладные расходы в вычислениях. Органика же имеет динамику, и логика её электрической цепи меняется ежедневно/ежечасно.

p.s. "... потому что нейронный интеллект...", т.е. сеть...
 
Ответить с цитированием
Ответ





Здесь присутствуют: 1 (пользователей: 0 , гостей: 1)
 


Быстрый переход




ANTICHAT.XYZ