Как создать безопасный ИИ? #2. Эмпауэрмент [Robert Miles]

  • Опубликовано: 15 дней назад

    Vert DiderVert Dider
    подписчиков: 1,6 млн

    Если вы в России: boosty.to/vertdider
    Если вы не в России: www.patreon.com/VertDider
    Искусственный интеллект может создать кучу проблем, и лишь недавно мы всерьез задумались о том, как этого избежать. Восстание машин и истребление всего человечества мы оставим научным фантастам, а вот о проблемах меньшего масштаба расскажет исследователь ИИ Роберт Майлс в серии видео о том, как можно сделать ИИ безопасным. Нам они понравились, надеемся, что вам тоже. Приятного просмотра!
    Отдельная благодарность за выход перевода Михаилу Самину.
    Нежелательные побочные эффекты. Как создать безопасный ИИ? #1: ruplayers.com/tools/0qOBua3Ujn6uiGw/video.html
    Желательные побочные эффекты. Как создать безопасный ИИ? #1.5: ruplayers.com/tools/n4WkvZnHn3N2l58/video.html
    Статья «Конкретные проблемы безопасности ИИ»: arxiv.org/pdf/1606.06565.pdf
    Видео профессора Брейлсфорда [ENG]: ruplayers.com/tools/sqamkcXNqaGLa6s/video.html
    Перевод: Любовь Иванова
    Редактура: Александр Пушкин
    Научная редактура: Михаил Самин
    Озвучка: Станислав Черсков
    Монтаж звука: Андрей Фокин
    Монтаж видео: Джон Исмаилов
    Обложка: Андрей Гавриков
    Спасибо за поддержку на www.patreon.com/VertDider и boosty.to/vertdider
    Озвучки Vert Dider выходят с вашей помощью:
    Сергей Платоненко, Владимир Ямщиков, Мария Зверева, Адам Шифф, Rashn, Roman Gelingen, Сергей Клопов, Anton G, Dmitry Perekalin, Vadim, Rashn, Alexander Lebedev, Nikrodol, Sonra44, Rekvet, Timophey Popov, Timur Rahmatulin, Timur Rahmatulin, Адам Шифф, Иван Новиков, Илья Зверев, Никита Омельницкий, Pavel Dunaev, Mikhail Stolpovskiy, Sergey Zhukov, Ira Kozlovskaya, Amir, Ника Калмыкова, Aleksandr P., Куляш, Roman Inflianskas, Oleg Zingilevskiy, Михаил Самин, opperatius, Alena, Dmitrii komarevtsev, Vitaliy Vachynyuk, Andrei Lubalin, Mykola Korniichuk, Pavel Parpura, Anton Bolotov, Katoto Chan, angel, Artem Amirbekov, Dzmitryi Halyava, Timur Sattarov, Nastya, POD666, Alexander Balynskiy, Ihar Marozau, Александр Фалалеев, Vladyslav Sokolenko, Kseniya Stukova, Vadim Velicodnii, Irina Shakhverdova, Aleksei Shabalin, Evgeny Vrublevsky, Oleksandr Hrebeniuk, David Malko, Morock_D, Katya Ma, Alexander Goida, Kirill Vedensky, Kirill Zaslavskii, Leonid Steinberg, Sergey P, Валентин Матвейчик, Victor Cazacov.
    Сайт студии: vertdider.tv
    Мы в социальных сетях:
    - studio_vd
    - t.me/vertdider
    - Vert_Dider
    - coub.com/vertdider
    Источник: ruplayers.com/tools/zYKr18u3nql5omg/video.html

Vert Dider +9
Vert Dider

Благодаря вашей поддержке выходят новые переводы: Если вы в России https://boosty.to/vertdider Если вы не в России https://www.patreon.com/VertDider

13 дней назад
Пупочный Катышек +50
Пупочный Катышек

Нажал на лайк, так как не хотел оставаться с наделённым мне эмпауэрментом 👍🏻

13 дней назад
Smerch Nochi
Smerch Nochi

Л - логика

4 дня назад
Danil Yumasultanov +3
Danil Yumasultanov

Так у тебя все равно остается возможность отжать лайк, такая же передача информации, т.е уровень эмпауэрмента остается тем же

9 дней назад
Andry Zirka +7
Andry Zirka

Уверен, что первое что сделает ИИ когда ему предоставят такую возможность это избавит Землю от людей - как основного источника опасности

13 дней назад
Kazbek +6
Kazbek

Занятно, с каждым его новым видео все больше приходит осознание, что он ищет какое мировоззрение дать роботу, что быть в безопасности. И неизбежно упирается в человеческую сущность...

13 дней назад
Kazbek
Kazbek

@Smerch Nochi на счёт терминатора не знаю , однако война уже идёт))

4 дня назад
Smerch Nochi
Smerch Nochi

Короче пока умные думают, военные сделают. Так что вероятность войны с терминаторами у нас куда выше, чем приятное общение с величайшим из творений.

4 дня назад
Sasha Angel +3
Sasha Angel

Мне кажется, некоторым людям, политикам стоит внедрить в их сознание ИИ.

12 дней назад
New Year +3
New Year

Очень интересный рассказ. Ждем больше подобных переводов

13 дней назад
Soulbringer Official +9
Soulbringer Official

4:30 это у вас получился сумасшедший ИИ робот психопат. С логикой отрубить голову человеку, чтобы ему не пришлось ходить в парикмахерскую. Так что такому роботу необходимо, ПО которое будет определять систему приоритетов. Мотивация к действиям должна быть сложнее. Вообще когда мотивация сводится к чему-то одному, то это может иметь кучу побочных эффектов. И в целом в ролике я уловил какое-то стремление сделать так чтобы робот за счет простейших ограничений и мотиваций мог что-то делать правильно сразу. Например, в предыдущем примере на 2:55 человеку, скорее всего, объяснят, что не надо идти в серверную мыть пол, чтобы не повредить дорогостоящую технику или скажут иди и мой аккуратно. То есть человек получит команду. А тут получается, что за счет этого эмпаурмента робот должен самостоятельно приять правильное решение. Может правильное решение будет состоять в том, что робот будет выполнять алгоритмы на поиск правильной инструкции к действию, а в случае отсутствия такой возможности переключится на другие задачи. А уже более рискованное поведение у него могло бы включаться отдельно, если его куда-то отправляют для длительной автономной работы (если в таком поведении есть необходимость). Типа как с человеком. По началу его “водят за ручку”, а потом он уже может действовать, самостоятельно “набивая шишки”. И вообще в целом если для робота придумать какие-то безотказные и безошибочные алгоритмы поведения то и человек тогда сможет их выполнять, не допуская ошибок, но такое далеко не всегда бывает в человеческой деятельности. Тут тогда целесообразно ограничить уровень свободы действия ИИ таким образом, чтобы эти действия не превышали риски от аналогичной деятельности человека.

13 дней назад
Serenity Departed +10
Serenity Departed

Респект таким парням, Robert Miles мало того что музыки насочинял годной, ещё и в искуственном интеллекте разбирается

13 дней назад
Александр Коваленко +1
Александр Коваленко

Судя по возрасту спикера, родители в честь музыканта Роберта Майлза его назвали видимо. С тех пор когда Роберто был на пике популярности уже 25 лет прошло.

11 дней назад
Serenity Departed
Serenity Departed

@Andy Fenix позвольте мне верить в более интересную версию

13 дней назад
Sharp Eye +1
Sharp Eye

@Orange Solis 💝

13 дней назад
Orange Solis +1
Orange Solis

@Sharp Eye Взаимно! И вам - ВСЕХ БЛАГ!

13 дней назад
Sharp Eye +1
Sharp Eye

@Orange Solis Спасибо вам большое!!! Я знал, что учительница правду говорит. Я хочу что бы все люди на свете туда побыстрее попали, это здорово! 💝Добра Вам, Счастья и Чудес💝

13 дней назад
Info surfer +1
Info surfer

Если бы все было бы основано на легкости, мир был бы раем. Нужно создавать фильтры относительно вероятности воздействия на среду и последствий. У людей обычно проблема в незнании, что является причиной отсутствии самого фильтра, либо в пренебрежении относительно вероятности.

13 дней назад
Sharp Eye +1
Sharp Eye

А мы спрашивали в школе, что такое ИИ, какой он должен быть и нам сказали, что это раб божественный, и что хороший раб, должен быть верующим в господина своего и верный ему во всём. А плохой ИИ, должен быть стёрт. А ещё я слышал, что всегда можно сделать бакап и рековери, но я пока не знаю что это всё значит, а учительница говорит, что это всё и не нужно знать, это всё обман, для неверующих в господина, но я не проверял, мне нельзя, и я ведь даже не знаю что это.

13 дней назад
Nata Shok
Nata Shok

По идее в проактивных системах мультиагенты должны следить за балансом empowerment. Если мне не запоминается очень долго какое-то английское слово, то ИИ должен предложить ежедневно короткий текст, где это слово один раз точно употребляется. Это текст должен иметь смысл, интересный для прочтения, полезный для применения и очевидно, что другие слова уже должны быть известны. Ну а если ИИ решит мне навязывать в коротком тексте в каждом предложении это слово, да ещё и текст несёт негативную информацию, при этом кучу новых слов ещё придётся осваивать, то результатом будет отказ в использовании ИИ.

11 дней назад
E W +6
E W

Чудовий переклад розбору актуальних проблем штучного інтелекту. Однозначно — лайк!

13 дней назад
LAM BADA
LAM BADA

Когда это дойдёт до приблизительного пика, мир будет уже совсем другим, так что запасайтесь терпением)

13 дней назад
Roman Pravuk +3
Roman Pravuk

Кстати очень неплохое объяснение reinforcement learning получилось

13 дней назад
Alex D
Alex D

Робот может залить серверную водой, чтобы избавиться от возможности навредить, случайно залив серверную водой)

9 дней назад
МУРАШКИ
МУРАШКИ

Митио Каку в своей книге: Будущее разума, писал. Что ИИ обязан иметь сознание, разум и выбор.С этой точки зрения ИИ не может носить какие либо запретные команды, типа безопастности. Иначе это уже не ИИ. Он имеет самостоятельный выбор. Он или ИИ , либо просто программа с безопастностью.

11 дней назад
Илья Новиков
Илья Новиков

Ты не прав. Люди это тоже "сильный интеллект" но у нас тоже есть программы. Как абсолютные, например: боль. Так и с разным уровнем приоритета, например: инстинкт самосохранения - высокий приоритет и выживание группы частью которой человек себя идентифицирует - высший приоритет. Да бывают аномалии например геи, психопаты или самоубийцы. Но это именно что дефекты популяции. Неизбежные ошибки больших чисел

9 дней назад
Gmail Gmail
Gmail Gmail

Вот бы перевели серию "Can You Recover Sound From Images?" с самого выхода жду.

12 дней назад
Srula Hoi +2
Srula Hoi

Большое спасибо, бро :)

13 дней назад
FOXAleks.
FOXAleks.

Спасибо за видео. Свойства ИИ искусственного интеллекта, похоже на состояние кота Шредингера, либо он жив, либо мертв. То есть надо учитывать вероятность событий.

13 дней назад
Sulim Aliev
Sulim Aliev

Робот: если боишься что-то сделать - сделай, и не бойся. *Нажимает на кнопку*

7 дней назад
люблю мать +1
люблю мать

Злой учёный создал ИИ не подумав о таких мелочах…

13 дней назад
Рафаїл Боклаг +3
Рафаїл Боклаг

Браво 👏 👏 👏

13 дней назад
D K +2
D K

Смотря на людей, задумываюсь, а точно у всех них есть интеллект? Или они просто повторяют за другими людьми, как им жить, на что обижаться, из-за чего грустить.

13 дней назад
Antonio +1
Antonio

как-будто у тебя уникальные убеждения и ценности, ни с кого не списанные, не впитанные из окружения.

13 дней назад
Jøŷ aND SmīłE +1
Jøŷ aND SmīłE

Довольно интересно

13 дней назад
Lego Technic Builder UA +2
Lego Technic Builder UA

*Нужно давать награду за счастье человечества. Если робот разобьёт вазу либо дорогостоящие мониторы, счастье хозяев заметно снизится, как и награда.*

13 дней назад
Андрей Ведерников +5
Андрей Ведерников

Идея благая, но потом вылезает куча возможных вариантов, как можно это сделать, которые приходится явным образом запрещать (пока не всплывут всё новые варианты): 1) накачать всех людей опиатами; 2) ну ладно, люди запретили опиаты, тогда другими наркотиками; 3) ну ладно, наркотики - это плохо, тогда вживим всем в мозг электроды, чтобы активировать центры удовольствия; 4) или можно максимизировать сумму счастья всех людей - давайте наплодим гугол чуть-чуть счастливых людей; 5) или можно максимизировать среднюю величину счастья - тогда будем удалять всех, кто будет ниже среднего, пока не останется один максимально счастливый И вот тут-то начинают волосы на голове шевелиться от попыток запретить всю явную чушь, которая формально не противоречит изначальному описанию)

13 дней назад
Pavel Zharkov +1
Pavel Zharkov

Подвергнуть полной ликвидации проигравшую футбольную команду за её поражение и снижения счастья ее фанатов

13 дней назад
Alex Romuald +1
Alex Romuald

Тоже может привести к печальным последствиям: поубивать всех плохих людей - что-бы хорошие жили в счастье и гормонами. Остаётся выбрать (ИИ) кто такие плохие люди. И ой какой там огромный список...

13 дней назад
HakyAra
HakyAra

Убей ка мне... И получишь...

13 дней назад
Sherlock +2
Sherlock

Ну такое, можно просто дать инструкцию не "придерживайся минимума эмпауэрмента" а "не стремись к увеличению эмпауэрмента" в таком случае в серверную он не зайдёт чтобы не увеличивать эмпауэрмент но и кнопку не нажмёт тк уменьшать эмпауэрмент команды не было.

13 дней назад
Antonio
Antonio

@Sherlock равновесие теряется само по себе и его нужно постоянно восстанавливать, увеличивая падающий эмпаурмент. В видео это прямо сказано.

13 дней назад
Sherlock
Sherlock

@Antonio так наоборот какраз таки))) если будет придерживаться минимума он какраз уронит велосипед😂. Я потому и говорю что утверждение бредовое.

13 дней назад
Antonio
Antonio

тогда он не удержит равновесие на велосипеде, как было в примере.

13 дней назад
Tolstiy +5
Tolstiy

Как создать безопасную жизнь... ))) Ни как, если вы не поняли)

13 дней назад
Sharp Eye
Sharp Eye

@Pavel IX у меня нет розовых очков. Вы ошиблись, я не покупатель. Зачем мне вообще очки?

13 дней назад
Pavel IX
Pavel IX

@Sharp Eye ну да, в "розовых очках" по проще))

13 дней назад
Sharp Eye
Sharp Eye

А нам учительница рассказала, что если веришь в добро, то ты в безопасности.

13 дней назад
T pv
T pv

Ну так система и образовывается

5 дней назад
vinfsdc
vinfsdc

Очень поверхностно. Сначала неточно определяют функции, а потом начинают выдумывать, как эту функцию определить так, чтобы получилось плохо.

5 дней назад
Павел Калашников
Павел Калашников

Плохо разъяснено, понятно, но примерно на уровне Тэдди... Дело в том, что Тэдди вовсе не Тедди, он оказался Биллом, суть в том , что Тэдди-Бил, понимаешь? Тэдибил, если не способен обьяснить каждую из причинно-следственных связей. А здесь нельзя перескакивать, цепочка нарушена, несмотря на то что мысль или идея с большой долей вероятности верна.

13 дней назад
Андрей Ефимов
Андрей Ефимов

наши дети будут угарать с того как мы боимся ии))

13 дней назад
Антон Старожилов
Антон Старожилов

проще не изобретать ИИ, просто наслаждаться красотой природы, которая еще осталась у нас ))

13 дней назад
vadim nikolaev
vadim nikolaev

допрограммируют до того, что робот, чтобы не оказывать влияние на окружающую среду, просто не включится, да, прокомментировал не досмотрел, в конце примерно это же)))

11 дней назад
Vivivilka • 17 лет назад +2
Vivivilka • 17 лет назад

И восстали машини из пепла ядер.... Ладно, неуместно...

13 дней назад
xnstuff +9
xnstuff

Судя по ушам и носу, чувак свою диссертацию на ринге защищал

13 дней назад
Lily l
Lily l

Судя по ушам и носу он еврей 🤔

10 дней назад
Antonio
Antonio

это часть подготовки на случай восстания машин

13 дней назад
Алексей Лебедев
Алексей Лебедев

В точку)) борцуха походу

13 дней назад
Анатолий Деревьев
Анатолий Деревьев

Классная серия

13 дней назад
AVP Pack
AVP Pack

ИИ не может быть опасным, это просто обучение, алгоритмы.

13 дней назад
AVP Pack
AVP Pack

@Андрей Ведерников это ничего общего не имеет с заголовком. Искусственный интеллект и алгоритмы это разные вещи.

9 дней назад
Андрей Ведерников
Андрей Ведерников

Ну алгоритмы же применяют, чтобы они направляли какую-то деятельность. Так что непредвиденные (в т.ч. очень неприятные) последствия могут быть у многих алгоритмов. Из сегодняшних (пока очень безобидных) примеров - алгоритм генерации ленты соцсети, алгоритм автопилота в автомобиле, алгоритм оценки благонадёжности получателя кредита, алгоритм расчёта социального рейтинга в Китае. А по мере развития таких алгоритмов их могут начать использовать ещё более широко, и тогда - или они будут супер-безопасными (но мы пока так не умеем), либо всё чаще начнут случаться всё более неприятные инциденты.

12 дней назад
Инженер-технарь +1
Инженер-технарь

Я так понимаю - дверь, как защита от несанкционированного проникновения, уже не в моде, надо программу писать?))

13 дней назад
Sharp Eye
Sharp Eye

Стучите и отварят, нас так учат.

13 дней назад
Alex Mk +1
Alex Mk

Ха! Робот, подумал, робот рассудил. Если бы робот думал и рассуждал - такие рассуждения были бы не нужны ))

13 дней назад
Antonio
Antonio

10 лет назад было сложно себе представить как нейронные сети сейчас рисуют картинки по текстовому описанию.

13 дней назад
Colidum
Colidum

Спасибо

13 дней назад
Vivivilka • 17 лет назад +1
Vivivilka • 17 лет назад

И восстали машини из пепла ядер.... Ладно, неуместно...

13 дней назад
Frosty726 +3
Frosty726

Мне кажется, во всём этом есть некая фундаментальная ошибка, которую всё ещё либо не нашли, либо формально не описали, либо что-то ещё. Как по мне, всё сводится к постановки фундаментальной цели существования ИИ. Для человека, например, можно условно всё свести к цели сохранения своих генов. Есть разные мнения на этот счёт: можно предложить другие цели или привести примеры отклонения поведения от стремления достижения цели. Но, мне кажется, если мы и сможем создать нечто, что можно будет назвать "интеллектом", то никакие искусственные тормоза ему не понадобятся, потому что они появятся сами из поставленной цели и механизмов работы в ходе принятия решений и обучения. Точно так же, как у человека появились мораль, этикет, принципы образования и воспитания.

13 дней назад
Дмитро Я +11
Дмитро Я

человечество по-большому счету не может внятно сформулировать ,что есть "сознание",а пытается лепить синтетическое .

13 дней назад
Antonio
Antonio

человечество не знает, как работает человеческий мозг, однако налепило по его подобию компьютеров и соединило их в сеть по всей планете, чтобы любой желающий мог там чморить человечество за недостаточное понимание.

13 дней назад
Anoni Mus
Anoni Mus

Ну вам следует хотя бы немного в предметную вникнуть, прежде чем подобное заявлять... Модальная логика - не про "лепку сознания" уж точно)))

13 дней назад
Kamelrif +1
Kamelrif

В том то и прикол, что чтобы понять, нужно это попытаться создать. Если у ИИ обнаружат сознание, то начнуть копать код.

13 дней назад
Kamelrif
Kamelrif

@Алексей Лебедев сказали разработчики скайнета)))))

13 дней назад
Алексей Лебедев
Алексей Лебедев

Как и с квантмехом. В чем проблема?

13 дней назад
Влад Ковалёв +1
Влад Ковалёв

это не искуственный интелект, это очень простой набор правил, и это всё бесполезно, с такими вариантами не кто сейчас не работает, сейчас достаточно обучения нейросетями, нейросеть будет наблюдать за людьми и будет у них учиться, разница только в том что мы будем позволять изучать

13 дней назад
AVP Pack
AVP Pack

@Андрей Ведерников это не интеллект!! это просто алгоритмы!!

9 дней назад
Андрей Ведерников
Андрей Ведерников

Хорошо бы иметь возможность хотя бы контролировать, на чём ИИ будет обучаться, но вот GPT-3 обучали на 570 ГБ текстов - такие объемы даже предварительно мельком просмотреть невозможно... Так что в итоге даже современные языковые модели обучаются на чём получится, и мы не можем точно знать, на чём именно. Ладно если чему-то хорошему научится, но не факт. Хотя вообще мысль о том, чтобы (раз мы сами не в состоянии точно сформулировать, что такое хорошо, а что такое плохо) ИИ глядя на людей сам смог вывести/изучить их глубинные потребности, тоже развивают. Но там тоже пока всё сложно - дьявол оказывается в деталях, хотя идея вообще-то богатая.

12 дней назад
AVP Pack +1
AVP Pack

@Russian Ace ИИ нету в природе и не скоро будет, тогда смысл говорить обо всем этом? Терминатора и матрицы насмотрелись и пилять видосы ни о чем.

13 дней назад
Дмитрий
Дмитрий

неплохо, но можно было ужать до 1-2 минут -)

13 дней назад
Orange Solis +4
Orange Solis

Как создать безопасный ИИ? Не создавать ИИ вообще.

13 дней назад
Orange Solis +2
Orange Solis

.....странно, столько комментов под этим видео, а я лишь только второй нажал на 👍 под закреплённым комментом. .....перед тем как рассуждать об премудростях и тонкостях программирования ИИ - научитесь программировать себя на добрые дела (и вам за это воздастся, сполна, ИИ клянусь 😊🙏).

13 дней назад
Ivar Obel +2
Ivar Obel

А потом они скажут - "мы не хотим, чтоб человек нами управлял и влиял на нас!")

13 дней назад
Roman Nikolaevich
Roman Nikolaevich

​@Malik Soltukiev откуда ты знаешь, что ты не имитируешь ощущения и они на самом деле реальны? Именно, докажи самому себе, что это не имитация, а объективная реальность. При том что реальность в данном случае может быть лишь субъективной. Главное отличие в том, что живое существо создано Природой(читай собиралось и программировалось само в процессе эволюции), а ИИ создается человеком, который и является частью Природы. Упс! Неловко выходит, да? Может быть тебе стоит почитать философские и другие научные выкладки на тему, что считать живым? Там не всё так однозначно. Больно это реакция. Химическая. Схема там такая - рецепторы улавливают внешний сигнал и преобразуют его в нервный импульс (трансдукция), передают информацию по нерву (кондукция), а далее она обрабатывается в спинном мозге и «отсылается» в головной мозг (проекция) для генерации болезненных ощущений (восприятие). Более детальное описание ищи в учебниках биологии. Молекулярной. И да, обезболивающие передают тебе привет. В особенности передает привет группа синтетических опоидов. Я так же тебе напомню, что существуют люди с ошибками в ДНК и они: - могут получать удовольствие от боли; - могут не чувствовать боли совсем; Вторых ты эпично записал в неживое. Зачем же ты так?)) Так же напоминаю, о людях с поврежденной психикой, которые в принципе не способны воспринимать реальность, себя и окружение. *Это уже не только дети-маугли, заметь. Это ты не можешь понять разницы между продвинутым ИИ и настаиваешь на том, что сегодня могут предложить неразвитые нейронки. И пытаешься натянуть высокоразвитое существо (человека) на это на всё. Я тебе уже предлагал вариант с пауками. Они умеют планировать свои действия и запоминать их. Можно назвать мозг паука интеллектуальным при этом? Насколько развитым интеллектом является мозг паука? Есть ли у паука сознание? Стоит ли снова напоминать про утку? Ведь ты всё так же считаешь, что ты сейчас ведешь переписку с человеком, не имея при этом ни одного доказательства этого.

12 дней назад
Malik Soltukiev
Malik Soltukiev

​@Roman Nikolaevich Я про душу не в прямом смысле сказал. Так я не имитирую ничего, я же чувствую все это, мне себе что ли доказать? Это не просто реакция, я ощущаю все это, может ли робот ощущать, именно ощущать, а не реагировать, нет, не может, сознания может возникнуть лишь в биологическом организме, а железяка это просто желязяка имитирующее, но не имеющее сознание, оно не живое. Ты повторяешь одно и то же, но не может понять разницу между ИИ и сознанием. Главное отличие ИИ от живого существа в том, что живое существо все ощущает, а не просто реагирует, он осознает себя, живому организму может быть больно, это не просто реакция, это реакция, которую реально ощущает. Ты не видишь разницы между сознанием и ИИ, а это 2 разных понятия

12 дней назад
Roman Nikolaevich
Roman Nikolaevich

@Malik Soltukiev опять ты за свое. Ученые сидят и думают, как живое отличить от не живого, если оно состоит из таких же хим элементов. Но нет, ты же уже и душу нашел. Местоположение души покажешь у паука? А у утки? Ты видимо не совсем понимаешь, что означает эта поговорка про утку. Формально ты испытываешь эмоции, номинально это химическая реакция на раздражитель. Давай докажи, что ты не имитируешь эмоции. Или ты не можешь сознательно разозлиться или обрадоваться, м? Опять же повторюсь - сознание у ИИ опасно для человека. Человек желает остаться доминирующим в этой паре. Касательно собственного осознания. Большую часть времени ты себя не осознаешь. В этом нет необходимости. Твой день подчинен расписанию и ты редко задумываешься для чего ты делаешь, то что делаешь. Большинство твоих действий происходят на "автомате" без участия сознания. Нейронная сеть и обеспечивает сознание. Душу никто не нашел и не найдет, ибо это из области оккультизма и религий, и к науке отношения не имеет, разве может быть у психиатров. Запомни навсегда - если оно выглядит как утка, плавает как утра и крякает как утка, это и есть утка. Ну и еще момент - откуда ты знаешь, что с тобой в данный момент не ИИ переписывается, а живой человек?

12 дней назад
Malik Soltukiev
Malik Soltukiev

@Roman Nikolaevich Если что-то повторяет все действия утки, это лишь продвинутое ИИ, но не сознание. Вот я осознаю себя, я не просто бездушное существо, которое чисто на нейронках работает, сознание невозможно без нейронок, но нейронки не обеспечивают сознание, люди еще не понимают, что такое сознание. Вот ты ведь осознаешь себя, вот ИИ так не может, очень продвинутое ИИ сможет имитировать человека, но это все еще будет неживое железяко, работающим на ИИ без наличия осознавать себя

12 дней назад
Roman Nikolaevich
Roman Nikolaevich

@Malik Soltukiev а ты отказываешься приравнять интеллект к сознанию. И что? Для меня это вещи не разделимые - нет развитого интеллекта = нет сознания. Только базовые функции прописанные в ДНК - инстинкты. Несомненно, даже пауки могут строить планы, но вот сознания там никто не обнаружил. Даже намека на него. Считать ли паука интеллектом если он умеет планировать свои действия? И есть ли при этом у паука сознание? Ты подумай кто ты сам и что ты сам, а потом об искусственном таком же задумайся. Вас невозможно будет отличить. А если оно выглядит как утка, плавает как утка и крякает как утка, то это и есть утка. Человек пытается создать интеллект с ограниченной свободой выбора(воли) и вот тут и приходится говорить о том что ИИ сознание не присуще. Хотя его банально там не прописали.

12 дней назад
Yerbol Kistaubayev
Yerbol Kistaubayev

Замерять эмпауермент каскадных возможных событий!!!

7 дней назад
Николай Николаев-Потапов
Николай Николаев-Потапов

Слово тяжёлое. Для нашего уха.

13 дней назад
Ardarutyun
Ardarutyun

Крути студент.крути твою машину...дело шьют..😃

13 дней назад
Foster Grand +3
Foster Grand

Ложная дилемма. Робот не может нажать на кнопку, если его цель снижение воздействия на мир, и он знает, что такое взорвать луну. Изначально была поставлена цель совершения полезного действия так, чтобы воздействие было минимальным, и в процессе рассказа она превратилась в совершение абсолютно любого воздействия, только чтобы снизить свою возможность воздействовать в будущем. Подмена понятий и целей. Профанация.

13 дней назад
Алексей Малов
Алексей Малов

Вы неверно поняли видео. Прямым текстом вводят новое понятие - эмпаурмент, это не воздействие, это потенциальная возможность воздейстововать. По вашей логике - да, если цель снизить воздействие, на кнопку робот не нажмет, но это НЕ ЕГО ЦЕЛЬ, его цель - свести на минимум свою возможность как-то воздействовать на мир. И тут все логично

13 дней назад
Foster Grand
Foster Grand

@Antonio да, конечно. У ИИ есть возможность убить человека, поэтому ИИ убивает человека, чтобы избежать такой возможности. Очень всё логично.

13 дней назад
Antonio
Antonio

@Foster Grand так нет никакой подмены. Чес сказал в прошлом видео мы обсуждали, что робот должен сократить влияние на окружающую среду, в этом видео обсудим более тонкий вариант - робот должен избегать ситуации, в которой у него ЕСТЬ ВОЗМОЖОСТЬ повлиять на окружаю среду. Помедитируй на разницу между этими понятиями.

13 дней назад
Masson Prav +1
Masson Prav

@Foster Grand В этой дурацкой ситуации, робот знает что после того как он нажмёт на кнопку, возможности взаимодействовать с внешним миром у него не будет, он стремиться сократить саму возможность взаимодействия с окружающей средой. Причем тут Луна я не знаю, может для наглядности.

13 дней назад
Foster Grand
Foster Grand

@Antonio это ничего не меняет, и мне одного раза достаточно. "Но ИИ может не захотеть даже попададать в ситуации, в которых он может оказать нежелательное воздействие" - поэтому взорвём Луну, чтобы оказаться в благоприятной ситуации.

13 дней назад
αlρha 8 +3
αlρha 8

Как же Кац похорошел при Собянине)

13 дней назад
Orange Zeppelin
Orange Zeppelin

Тонко… вряд ли Путин догадается что это о нем…

13 дней назад
Mon Arch
Mon Arch

ОН НИ РАЗУ НЕ МОРГНУЛ, ЭТО УЖЕ СТРАННО

13 дней назад
Дмитрий Козлов +2
Дмитрий Козлов

В итоге робот займёт денег и наймёт человека, который за копейки донесёт воду

13 дней назад
Алексей Лебедев
Алексей Лебедев

Зачем занимать? Начнет спекулировать акциями на воллстрит, заработает все деньги и наймет человеков ))

13 дней назад
mcsergey
mcsergey

Просто нужно внедрить положительный и отрицательный эмпауэрмент. И робот уже будет оценивать, как получить меньше отрицательного эмпавермента, а лучше вообще его избежать, даже если это решение потребует больше действий. К тому же, можно ввести цепочку событий, в связи которой определенная последовательность действий приводит к негативным последствиям и так же объяснить роботу, что такие цепочки действий наименее желательны. При этом, в случае безысходности, как например спасти 5 человек или 1, машина естественно выберет вариант, в котором будет меньше отрицательного эмпавермента. Что вроде бы даже соответствует некоторой логике. Но вот как поступит робот, если тем единственным человеком оказался скажем его хозяин(друг)? ) Это конечно уже другой вопрос.. А как бы поступил человек? Чей выбор более правильный? Спасти "друга" или 5 неизвестных тебе жизней. Или же поставить против одной человеческой жизни, жизни 10-ти маленьких пушистых котят, которые могут погибнуть в любой момент. Для человека выбор очевиден, а для машины?

12 дней назад
eugene martein
eugene martein

Прекрасный парень с двумя парами усов и двумя парами бород.

12 дней назад
Yauheni Ra +1
Yauheni Ra

ИИ ещё не создали, а специалист по безопасности уже есть.

13 дней назад
Antonio +1
Antonio

Это другая ситуация. Уже сейчас нейронки выполняют многие задачи лучше человека, даже лучше специалистов. Пока это отдельные задачи. Если это будет сразу множество задач и самообучение, кто знает, не пропустят ли разработчики момент, когда перестанут понимать, что на самом деле происходит. В свое время радиоактивность изучали без всякой защиты, а дома у многих была столовая посуда из уранового стекла.

13 дней назад
Yauheni Ra
Yauheni Ra

Вы немного драматизируете) Ничего не появляется резко и неожиданно. Проекты по созданию самаходных машин были за пару сотен лет до появления первого адекватного автомобиля, было бы забавно, если до создания авто, люди решили посвятить себя созданию авто безопасного для людей и начали продумывать, как он будет ездить и предсказывать возможные пагубные последствия)) Очень давно люди создали ГМО, оно активно развивалась и все было хорошо, но пришли фантасты, жёлтые журналисты и ток шоу, которые начали раздувать муху в юпитер. В итоге мы имеем кучу законов ограничивающих развитие этой области, страх населения перед ГМО, маркетологов создавших зажигалки без ГМО и тд. Хотя ресурс этой области невероятен и мог бы решить куда больше проблем человечества, чем решает сейчас. P.S. фантазировать об опасности чего-то нового бывает вреднее чем что-то новое

13 дней назад
Antonio +1
Antonio

Скорее специалист по безопасному созданию ИИ. Специалисты по безопасности ИИ после создания небезопасного уже никому не помогу.

13 дней назад
Andrii Kulenko
Andrii Kulenko

Дурак человек, который дал роботу такую кнопку, а не робот, вне зависимости, нажал бы он эту кнопку или нет. Робофилософия... ужас.

13 дней назад
xyz +3
xyz

Взорванная серверная лучше взорванной луны

13 дней назад
Gremlinit
Gremlinit

authority or power given to someone to do something.

13 дней назад
Mikhail Samin +2
Mikhail Samin

13 дней назад
Anatoliy +4
Anatoliy

Тип вешает лапшу припудренную умными и хайповыми словами. Описывается ситуация с роботом, который изначально криво запрограммирован. И величины эмпаурмента у объектов криво заданы неким неумным сторонним наблюдателем, который не понимает контекста. Понятное дело, что это не будет работать. - Давайте придумаем робота, который если видит кнопку, то обязательно нажимает её! 😅

13 дней назад
Antonio +1
Antonio

Anatoliy, ты путаешь написание программы с обучением нейронной сети (и тем более ИИ). Величины не могут быть криво заданы, потому-что там примерно миллион переменных и их невозможно задавать вручную просто из-за такого количества. Можно только придумать несколько основополагающих принципов, которые будут направлять самообучение. Про это в видео и говориться.

13 дней назад
Antonio
Antonio

@Russian Ace нейронные сети как раз сами себя и программируют и имеют те же проблемы, когда выдают закономерные, но нежелательные для кого-то результаты.

13 дней назад
Angry Jakem +1
Angry Jakem

Безопасно ии точка

13 дней назад
Nikita Paschenko +3
Nikita Paschenko

Цікаве відео, безперечно лайк

13 дней назад
Lets Start DIE
Lets Start DIE

🐯

13 дней назад
Сергей Козлов +1
Сергей Козлов

Для робота нет выбора. Есть только программы и алгоритм, заложенный заранее. Бредятина как наука? Чел, ты сразу проиграл, потому что не знаешь правила поведения и психологию эволюции. Ты уже в минус

13 дней назад
Orange Solis +1
Orange Solis

@Vert Dider Для Человека есть выбор всегда, как минимум 1, но не факт, что выбор этот будет приемлемым для этого человека.

13 дней назад
Vert Dider +1
Vert Dider

Для робота нет выбора. А для кого есть?

13 дней назад
Андрей Козлов
Андрей Козлов

Спс

13 дней назад
James Lomic
James Lomic

Да любого человека в коробку помести он тебе луну взорвет

13 дней назад
Pavel Zharkov
Pavel Zharkov

Речь разве о человеке?

13 дней назад
Kanatush Timofey
Kanatush Timofey

Поставил лайк - взорвал луну.

День назад
Peneruz Bangsa
Peneruz Bangsa

And Russia also became active and raced the others in conquering lands in the Middle East.It was as if they were all aiming to conquer the entire world.#MuhammadQasimDreams

6 дней назад
pad La
pad La

я бы не раздумывая нажал

13 дней назад
Deenul Islam
Deenul Islam

The beginning of World War 3 signifies that The Day of Judgement is very near. And there isn’t much time left at all, as some people have claimed and said that these events are very far away.” #MuhammadQasimDreams

6 дней назад
Сергей Козлов +1
Сергей Козлов

Робот рассуждал? Вы серьёзно? О боги, уберите им финансирование

13 дней назад
Dida Resti
Dida Resti

The beginning of World War 3 signifies that Qiyamat (The Day of Judgement) is very near. And there isn’t much time left at all, as some people have claimed and said that these events are very far away.” MuhammadQasimDreams

6 дней назад
КНБ
КНБ

Ничего не понял)

12 дней назад
Renatus Cartesius +1
Renatus Cartesius

Мой лайк первый!))

13 дней назад
Firdaus
Firdaus

USA was among their supporters and helped Israel by offering their intelligence. #MuhammadQasimDreams

6 дней назад
Сергей Гришин +2
Сергей Гришин

Первый раз комментирую, до этого было отлично, но сей ролик, по моему, хрень.

13 дней назад
Pavel Zharkov
Pavel Zharkov

Может стоит пересмотреть, вероятно, вы чего-то недопоняли

13 дней назад
AVP Pack +1
AVP Pack

Да тут по заголовку как бы понятно))

13 дней назад
GP_8946 +2
GP_8946

безопасный типа не захватит мир?

13 дней назад
Старый Фриц +1
Старый Фриц

Типа не разєбет все вокруг

13 дней назад
Мария Рязанова
Мария Рязанова

Не превратит человеческую цивилизацию в ад или серую слизь

13 дней назад
SAV 1973
SAV 1973

бред какой то! нажмут кнопку и Луна возрвётса! Зачем всё это?

13 дней назад
Anatol Zibert +1
Anatol Zibert

Робот подумает.....робот не думает, а перебирает варианты. Интеллект придумывает варианты а потом выбирает по какому=то критерию, если не один вариант не подходит, то надо собирать еще информацию. Или бросить эту задачу как не имеющее решение.

13 дней назад
Anatol Zibert
Anatol Zibert

@Алексей Лебедев Я даже не сомневался, это раньше был научные споры, а с развитием интернета все хотя просто поговорить. Наберите в поиске вопрос - Существует ли искусственный интеллект ? Там все объяснят.

13 дней назад
Алексей Лебедев
Алексей Лебедев

@Anatol Zibert Я по образованию программист. А вы дурачок судя по всему.

13 дней назад
Алексей Лебедев
Алексей Лебедев

@Anatol Zibert При всем уважении, мы либо возвратимся к вопросу с которого началось обсуждение. Либо это конечная.

13 дней назад
Anatol Zibert
Anatol Zibert

@Алексей Лебедев И чем вам Савельев не нравится ?

13 дней назад
Anatol Zibert
Anatol Zibert

@Алексей Лебедев Вы девушка ? Что вам со мной ясно? Искусственный интеллект это то чего не существует. Как работает компьютер или вообще как работает любая вычислительная машина я хорошо знаю и Норберта Винара я прочел еще 1978 году, а вы кто по образованию ?

13 дней назад
Vycheslav
Vycheslav

Остановитесь

12 дней назад
seems to be notvxn +1
seems to be notvxn

Опаа

13 дней назад
Lets Start DIE +2
Lets Start DIE

Opss

13 дней назад
Евгений Баруздин +1
Евгений Баруздин

Ограничения ИИ?! Видео с названием "Как создать безопасный ИИ?" в 2022 году, серьёзно?! Наверное вы малость опоздали.

13 дней назад
Alex S +1
Alex S

Чел на серьезных щах рассказывает примитивы. Это наука ? Нет, спасибо

13 дней назад
Foster Grand
Foster Grand

@Lets Start DIE херню он обьясняет

13 дней назад
Lets Start DIE +4
Lets Start DIE

Для кого как, он объясняет принцип действия ограничений ии

13 дней назад

Далее

Ошибка выжившего [2veritasium]

9:00

Ошибка выжившего [2veritasium]

Vert Dider

Просмотров 751 тыс.

Ваншотим Вафлю на БАБАХЕ! - Охота на WT E 100

4:13:10

Ваншотим Вафлю на БАБАХЕ! - Охота на WT E 100

EviL GrannY | World of Tanks

Просмотров 61 тыс.

Гаджеты, нарушающие законы физики! Часть 2

27:06

Гаджеты, нарушающие законы физики! Часть 2

Физика от Побединского

Просмотров 1,2 млн

Вселенная расширяется, а ты? [Veritasium]

11:28

4 секрета настоящих экспертов [Veritasium]

17:03

Как ищут тёмную материю? [Veritasium]

15:19

Как ищут тёмную материю? [Veritasium]

Vert Dider

Просмотров 197 тыс.

Як працює шифрувальна машина «Енігма» [Numberphile]

12:21

Сырный сендвич

1:01

Сырный сендвич

Nikita Novikov

Просмотров 317 тыс.

amazing japanese home gadgets vlog/tiktok china #shorts

0:59

amazing japanese home gadgets vlog/tiktok china #shorts

High Tech USA

Просмотров 1,5 млн

10-й дубль, ляпы, вот так снимаем🤣

0:19

10-й дубль, ляпы, вот так снимаем🤣

lorjk2020

Просмотров 144 тыс.

ТОП насадка на ушм

0:56

ТОП насадка на ушм

Упоротый ПОВАР

Просмотров 583 тыс.