Notice: file_put_contents(): Write of 6526 bytes failed with errno=28 No space left on device in /var/www/tg-me/post.php on line 50

Warning: file_put_contents(): Only 8192 of 14718 bytes written, possibly out of free disk space in /var/www/tg-me/post.php on line 50
Безвольные каменщики | Telegram Webview: kamenschiki/1995 -
Telegram Group & Telegram Channel
Ну что, у нас тут новость, которую многие уже подали как НОВОСТЬ. Еще бы: большие языковые модели с успехом прошли тест Тьюринга! Целая исследовательская статья [1] об этом, но, если коротко: в 73% случаев люди принимали ChatGPT за человека. Шок, мы обречены, завтра Скайнет захватит планету.

Не так быстро. Начнем с того, что новости о том, как машина прошла тест Тьюринга, появляются не в первый раз. Последний раз об этом писали [2] в 2023 году, а самый известный пример – история Eugene Goostman, чат-бота, созданного в начале 2000-х годов программистами Владимиром Веселовым, Евгением Демченко и Сергеем Ульяновым. Он изображал 13-летнего мальчика из Одессы, чьи особенности (возраст, происхождение и из-за этого странный английский) должны были объяснять возможные грамматические ошибки и логические нестыковки в диалоге.

Eugene Goostman стал знаменитым в 2014 году. Тогда его команда тоже заявила, что бот прошёл тест Тьюринга, убедив 33% людей (в тесте Тьюринга их принято называть interrogators, то есть те, кто ведет допрос) в том, что он человек. Но нынешние цифры куда круче, согласитесь.

И тем не менее, они по-прежнему не доказывают, что у машин появилось сознание. Успехи ИИ в попытках одурачить собеседников свидетельствуют о двух вещах: о наивности людей и о неприменимости теста Тьюринга для оценки интеллекта и сознания машин.

В первом вы легко можете убедиться сами: авторы нынешней работы о «взломе» теста Тьюринга создали сайт [3], на котором каждый может попробовать убедить interrogators, что он человек, или наоборот, угадать, кто из двух witnesses (то есть свидетелей – собеседников, с которыми одновременно говорит человек) – машина. Я провела за этим увлекательным занятием некоторое количество времени и хочу сказать, что, хотя некоторые роботы оказались весьма хитры (всего против вас играют четыре модели), основная сложность – убедить человека, что ты сам не робот. Пытаясь угадать, люди ориентируются на разные идеи и представления о машинах: например, что они более вежливые или не умеют использовать сленг. И если вы отвечаете слишком умно или тем более пытаетесь шутить, они часто принимают вас за робота.

Второй момент менее очевиден. Но факт есть факт: мощь больших языковых моделей (LLM) оказалась ровно в том, что они отлично умеют создавать выглядящие (и часто являющиеся) осмысленными тексты и реакции, не понимая при этом смысла. Каждый, кто много взаимодействует с ними, знает об этом: модели с одинаковой уверенностью выдают как верную информацию, так и полную чушь (или, что намного хуже, частичную).

Опять же, исследования показывают, что LLM, благодаря тому что они обучены практически на всех доступных данных умеют, например, переубеждать куда лучше, чем люди. У меня был про это отдельный пост [4], но, опять же, если коротко: LLM заметно эффективнее людей побуждали сторонников теорий заговора пересмотреть свои взгляды. Кому неохота читать, мы про это говорили во вчерашнем стриме [5] про то, как ИИ уже отнимает у людей тысячи рабочих мест.

В общем, оказалось, что умение беседовать как человек (и в чем-то даже лучше человека) оказалось не связанным напрямую с наличием сознания. Что, впрочем, неудивительно: сознание – очень сложная штука, и мы сами не понимаем, как оно устроено и откуда берется. Поэтому совершенно логично, что довольно наивная попытка протестировать, есть по ту сторона экрана сознание или нет, провалилась. Надо сказать, что наивной она нам представляется сегодня, после того как мы создали LLM и поизучали, что они могут. Во времена Тьюринга это было вполне обоснованное предположение. Вот бы он удивился, оказавшись в сегодня. Очень жалко, что он не может.

Ссылки:

[1] - https://arxiv.org/html/2503.23674v1
[2] - https://arxiv.org/abs/2305.20010
[3] - https://turingtest.live/ (важно: все беседы ведутся на английском, копировать фразы нельзя)
[4] -
[5] - https://www.youtube.com/live/V-tycZ5QIzY?si=VyavTzyLuj4j1gf7



tg-me.com/kamenschiki/1995
Create:
Last Update:

Ну что, у нас тут новость, которую многие уже подали как НОВОСТЬ. Еще бы: большие языковые модели с успехом прошли тест Тьюринга! Целая исследовательская статья [1] об этом, но, если коротко: в 73% случаев люди принимали ChatGPT за человека. Шок, мы обречены, завтра Скайнет захватит планету.

Не так быстро. Начнем с того, что новости о том, как машина прошла тест Тьюринга, появляются не в первый раз. Последний раз об этом писали [2] в 2023 году, а самый известный пример – история Eugene Goostman, чат-бота, созданного в начале 2000-х годов программистами Владимиром Веселовым, Евгением Демченко и Сергеем Ульяновым. Он изображал 13-летнего мальчика из Одессы, чьи особенности (возраст, происхождение и из-за этого странный английский) должны были объяснять возможные грамматические ошибки и логические нестыковки в диалоге.

Eugene Goostman стал знаменитым в 2014 году. Тогда его команда тоже заявила, что бот прошёл тест Тьюринга, убедив 33% людей (в тесте Тьюринга их принято называть interrogators, то есть те, кто ведет допрос) в том, что он человек. Но нынешние цифры куда круче, согласитесь.

И тем не менее, они по-прежнему не доказывают, что у машин появилось сознание. Успехи ИИ в попытках одурачить собеседников свидетельствуют о двух вещах: о наивности людей и о неприменимости теста Тьюринга для оценки интеллекта и сознания машин.

В первом вы легко можете убедиться сами: авторы нынешней работы о «взломе» теста Тьюринга создали сайт [3], на котором каждый может попробовать убедить interrogators, что он человек, или наоборот, угадать, кто из двух witnesses (то есть свидетелей – собеседников, с которыми одновременно говорит человек) – машина. Я провела за этим увлекательным занятием некоторое количество времени и хочу сказать, что, хотя некоторые роботы оказались весьма хитры (всего против вас играют четыре модели), основная сложность – убедить человека, что ты сам не робот. Пытаясь угадать, люди ориентируются на разные идеи и представления о машинах: например, что они более вежливые или не умеют использовать сленг. И если вы отвечаете слишком умно или тем более пытаетесь шутить, они часто принимают вас за робота.

Второй момент менее очевиден. Но факт есть факт: мощь больших языковых моделей (LLM) оказалась ровно в том, что они отлично умеют создавать выглядящие (и часто являющиеся) осмысленными тексты и реакции, не понимая при этом смысла. Каждый, кто много взаимодействует с ними, знает об этом: модели с одинаковой уверенностью выдают как верную информацию, так и полную чушь (или, что намного хуже, частичную).

Опять же, исследования показывают, что LLM, благодаря тому что они обучены практически на всех доступных данных умеют, например, переубеждать куда лучше, чем люди. У меня был про это отдельный пост [4], но, опять же, если коротко: LLM заметно эффективнее людей побуждали сторонников теорий заговора пересмотреть свои взгляды. Кому неохота читать, мы про это говорили во вчерашнем стриме [5] про то, как ИИ уже отнимает у людей тысячи рабочих мест.

В общем, оказалось, что умение беседовать как человек (и в чем-то даже лучше человека) оказалось не связанным напрямую с наличием сознания. Что, впрочем, неудивительно: сознание – очень сложная штука, и мы сами не понимаем, как оно устроено и откуда берется. Поэтому совершенно логично, что довольно наивная попытка протестировать, есть по ту сторона экрана сознание или нет, провалилась. Надо сказать, что наивной она нам представляется сегодня, после того как мы создали LLM и поизучали, что они могут. Во времена Тьюринга это было вполне обоснованное предположение. Вот бы он удивился, оказавшись в сегодня. Очень жалко, что он не может.

Ссылки:

[1] - https://arxiv.org/html/2503.23674v1
[2] - https://arxiv.org/abs/2305.20010
[3] - https://turingtest.live/ (важно: все беседы ведутся на английском, копировать фразы нельзя)
[4] -
[5] - https://www.youtube.com/live/V-tycZ5QIzY?si=VyavTzyLuj4j1gf7

BY Безвольные каменщики




Share with your friend now:
tg-me.com/kamenschiki/1995

View MORE
Open in Telegram


Безвольные каменщики Telegram | DID YOU KNOW?

Date: |

Telegram today rolling out an update which brings with it several new features.The update also adds interactive emoji. When you send one of the select animated emoji in chat, you can now tap on it to initiate a full screen animation. The update also adds interactive emoji. When you send one of the select animated emoji in chat, you can now tap on it to initiate a full screen animation. This is then visible to you or anyone else who's also present in chat at the moment. The animations are also accompanied by vibrations. This is then visible to you or anyone else who's also present in chat at the moment. The animations are also accompanied by vibrations.

Telegram auto-delete message, expiring invites, and more

elegram is updating its messaging app with options for auto-deleting messages, expiring invite links, and new unlimited groups, the company shared in a blog post. Much like Signal, Telegram received a burst of new users in the confusion over WhatsApp’s privacy policy and now the company is adopting features that were already part of its competitors’ apps, features which offer more security and privacy. Auto-deleting messages were already possible in Telegram’s encrypted Secret Chats, but this new update for iOS and Android adds the option to make messages disappear in any kind of chat. Auto-delete can be enabled inside of chats, and set to delete either 24 hours or seven days after messages are sent. Auto-delete won’t remove every message though; if a message was sent before the feature was turned on, it’ll stick around. Telegram’s competitors have had similar features: WhatsApp introduced a feature in 2020 and Signal has had disappearing messages since at least 2016.

Безвольные каменщики from us


Telegram Безвольные каменщики
FROM USA