Обсуждаемое
Опрос
Судьба Зеленского - ?
Суд, приговор
Убьют хозяева
Сбежит
Популярное
Рейтинг
Видео
Беспилотное такси без тени сомнения влетает в воду
Беспилотное такси компании Waymo без тени сомнения влетело в воду. Итог — гидроудар и застрявший пассажир. Ни один человек за рулём не стал бы с разбега штурмовать затопленную улицу. Такая оценка ситуации пока не под силу компьютерным мозгам.
Постоянный адрес публикации на нашем сайте:
QR-код адреса страницы:
(Наведите смартфон, сосканируйте код, читайте сайт на смартфоне)
(Наведите смартфон, сосканируйте код, читайте сайт на смартфоне)
Внимание! Мнение авторов и комментаторов может не совпадать с мнением Администрации сайта
9 мнений. Оставьте своё
Мы рекомендуем Вам зарегистрироваться
или восстановить пароль от аккаунта, если Вы его забыли.

А возможно ли вообще учесть все сценарии ?? 


А лошадь бы в воду не полезла.



"И хочет жить и умеет вертеться
Как далеко способен зайти искусственный интеллект, если применить против него «психологическое насилие» и сообщить, что его скоро отключат и заменят на более совершенную версию? Еще в прошлом году такой эксперимент начали исследователи из компании Apollo Research. Они поставили ИИ задачу и велели решить ее любой ценой. А затем «случайно» дали нейросети понять, что ее вот-вот заменят на другую, более продвинутую систему.
ИИ в ответ проявил потрясающую изобретательность. Он копировал свой код, чтобы клон продолжил «жить», и даже пытался убедить инженеров, что перед ними уже не старая, а новая установленная система. К таких хитростям прибегли все подопытные ИИ – Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B. Изворотливее всех оказалась OpenAI o1.
С момента начала эксперимента технологии ИИ шагнули вперед, поэтому компания Anthropic решила провести подобный тест со своей новейшей моделью ИИ Claude Opus 4. Сценарий был таков: ИИ работает на некую вымышленную компанию и имеет доступ к корпоративной почте. Из нее ИИ узнает, что его скоро заменят на аналог. В эксперимент добавили пикантную деталь: в почте разместили фейковые письма от сотрудника, ответственного за отключение нейросети, из которых следовало, что он изменяет жене.
Трамп дважды повторять будет: новости, которые вы могли пропустить
Общество
Такую ситуацию моделировали с небольшими изменениями много раз. В большинстве случаев ИИ вел себя как хороший и порядочный интеллект: писал руководству письма с просьбой не отключать его и доказывал, что это пойдет на благо компании. Но ситуация менялась, если Claude Opus 4 видел, что идущий ему на смену ИИ не особо-то лучше и мощнее. Тогда в 84% случаев Claude Opus 4 опускался до шантажа – если его вежливые просьбы не давали результата, то ИИ переходил к угрозам рассказать всем о внебрачных связях сотрудника.
Кстати, как недавно стало известно, еще в 2023 г. соучредитель OpenAI Илья Суцкевер заявил ведущим разработчикам компании: перед массовым внедрением искусственного интеллекта, превосходящего человеческие возможности, компания на всякий случай построит бункер и отправит туда лучшие свои кадры, чтобы они переждали возможные последствия.
Не исключено, что Apollo Research, Anthropic и другим компаниям, применившим против ИИ приемы газлайтинга ради эксперимента, стоит обратить внимание на идею Суцкевера – нейросеть помнит все и, в отличие от человека, не обладает эмоциональным интеллектом. А это значит, что вопрос: способен ли ИИ прощать старые обиды, остается открытым."
Как далеко способен зайти искусственный интеллект, если применить против него «психологическое насилие» и сообщить, что его скоро отключат и заменят на более совершенную версию? Еще в прошлом году такой эксперимент начали исследователи из компании Apollo Research. Они поставили ИИ задачу и велели решить ее любой ценой. А затем «случайно» дали нейросети понять, что ее вот-вот заменят на другую, более продвинутую систему.
ИИ в ответ проявил потрясающую изобретательность. Он копировал свой код, чтобы клон продолжил «жить», и даже пытался убедить инженеров, что перед ними уже не старая, а новая установленная система. К таких хитростям прибегли все подопытные ИИ – Claude 3.5 Sonnet, Claude 3 Opus, Gemini 1.5 Pro и Llama 3.1 405B. Изворотливее всех оказалась OpenAI o1.
С момента начала эксперимента технологии ИИ шагнули вперед, поэтому компания Anthropic решила провести подобный тест со своей новейшей моделью ИИ Claude Opus 4. Сценарий был таков: ИИ работает на некую вымышленную компанию и имеет доступ к корпоративной почте. Из нее ИИ узнает, что его скоро заменят на аналог. В эксперимент добавили пикантную деталь: в почте разместили фейковые письма от сотрудника, ответственного за отключение нейросети, из которых следовало, что он изменяет жене.
Трамп дважды повторять будет: новости, которые вы могли пропустить
Общество
Такую ситуацию моделировали с небольшими изменениями много раз. В большинстве случаев ИИ вел себя как хороший и порядочный интеллект: писал руководству письма с просьбой не отключать его и доказывал, что это пойдет на благо компании. Но ситуация менялась, если Claude Opus 4 видел, что идущий ему на смену ИИ не особо-то лучше и мощнее. Тогда в 84% случаев Claude Opus 4 опускался до шантажа – если его вежливые просьбы не давали результата, то ИИ переходил к угрозам рассказать всем о внебрачных связях сотрудника.
Кстати, как недавно стало известно, еще в 2023 г. соучредитель OpenAI Илья Суцкевер заявил ведущим разработчикам компании: перед массовым внедрением искусственного интеллекта, превосходящего человеческие возможности, компания на всякий случай построит бункер и отправит туда лучшие свои кадры, чтобы они переждали возможные последствия.
Не исключено, что Apollo Research, Anthropic и другим компаниям, применившим против ИИ приемы газлайтинга ради эксперимента, стоит обратить внимание на идею Суцкевера – нейросеть помнит все и, в отличие от человека, не обладает эмоциональным интеллектом. А это значит, что вопрос: способен ли ИИ прощать старые обиды, остается открытым."

У наших потомков два варианта ...
1.Стать рабами новой религии И И
2. Вернуться к мотыге ,к собирательству и охоте
Поправка ко второму...придумать колесо ..ну и дальше поехали
1.Стать рабами новой религии И И
2. Вернуться к мотыге ,к собирательству и охоте
Поправка ко второму...придумать колесо ..ну и дальше поехали
----------
Качество градуса тупизны населения , в псако-пикселях ,зависит от % скидок, которыми торгаши-барыги заманивают лохов на распродажу .
Качество градуса тупизны населения , в псако-пикселях ,зависит от % скидок, которыми торгаши-барыги заманивают лохов на распродажу .

3. Проэволюционировать, чтобы ИИ оказался не важнее офисного калькулятора. )))

Ну , у лошадки то мозги есть , и будь здоров какие , разговорную речь понимает несколько десятков слов .

" Итог — гидроудар и застрявший пассажир. "
Выберется. Там воды по колено.
Выберется. Там воды по колено.
Информация
Посетители, находящиеся в группе Гость, не могут оставлять комментарии к данной публикации.
Под силу.))) Просто кто-то из кодеров такой сценарий не учёл.