Telegram Group & Telegram Channel
Робот-эмпат и обучение с подкреплением

Искусственный интеллект пытается воспроизвести интеллект, и хотя есть такие штуки, как эмоциональный интеллект, ИИ, в первую очередь, направлен на когнитивные способности и мышление. Я считаю себя сильным эмпатом. Если мучается близкий человек - я мучаюсь почти так же. И хотя негативные эмоции эмпатировать легче, я думаю это просто потому, что они сильнее, и недавно я поняла, что сильные положительные эмоции я тоже легко считываю и перенимаю (это мое мнение, не подкрепленное чтением научной литературы). Недавно я подумала, а почему никто не пробовал (или пробовал?) сделать робота-эмпата, который только бы и делал, что зеркалил эмоции и как-то взаимодействовал с объектом отзеркаливания, утешал бы его? Натренировать такую сеть мне кажется несложным в парадигме обучения с подкреплением (reinforcement learning, дальше буду называть его RL), чем лучше воспроизводится эмоциональная реакция - тем больше за это вознаграждение.

Это может показаться бесполезной и тривиальной вещью, но мне кажется тут все не так просто и можно заносить типичную дилемму из ИИ. Если что-то выглядит и движется как утка… Если вы не можете отличить эмоции робота от человеческих, то как можно доказать, что он не чувствует их точно так же, как и мы? Это же как тест Тьюринга, только не на интеллект, а на эмоции, а тест Тьюринга машины стали проходить уже давным давно. Все это конечно придумала не я. Помимо самого факта схожести эмоциональных реакций, Рейчел сама не знает, репликант она или человек. В дизайне репликанта просто нет такого знания. Если сети никогда не говорить, что эмоции сети не настоящие и не человеческие, то доказать их “машинность” или несостоятельность будет еще сложнее.

Недавно у адептов RL вышла провокационная статья под названием “Reward is enough” - достаточно вознаграждения. Авторы утверждают, что нейробиологи / когнитивисты и компания изучают различные когнитивные функции, такие как память, язык, восприятие, как отдельные сферы, которые полезны для разных вещей и функционально по-разному вносят вклад в повышение приспособленности. Они говорят, что это путь в никуда. На самом деле конечной целью любого поведения можно считать максимизацию вознаграждения, и только благодаря этой цели, по пути к вознаграждению, можно развить кучу побочных ступеней в виде памяти, языка, и тд, которые помогут именно максимизировать вознаграждение. Вознаграждение, естественно, понимается в самом широком смысле - от базовых потребностей до интеллектуального превосходства или просто веселья. Аналогично RL, где функцией вознаграждения может служить что угодно, как например высокая степень отзеркаливания эмоций. Авторы приводят в пример AlphaZero у которого конечной целью (вознаграждением) было выигрывать в Go у соперника, а по пути к этой цели развилось огромное количество сложных игровых стратегий. У каждой стратегии есть своя ценность, но если мы будет изучать функцию каждой стратегии изолированно, то мы не поймем, почему AlphaZero стал настолько успешен.

С точки зрения парадигмы “достаточно вознаграждения” можно легко отстаивать позицию, что если долго тренировать робота максимально правдоподобно зеркалить эмоции, то не будет ничего удивительного, если в итоге он эти эмоции разовьет в себе. Ну или разовьет какие-то еще хитрые стратегии, чтобы добиться этой цели, и на множество этих стратегий было бы интересно взглянуть, ведь это своеобразный искусственный и в каком-то смысле эволюционировавший укороченный путь.

Уже написав все это я стала думать, действительно ли весь ИИ направлен скорее на когнитивные способности, и скорее всего конечно нет. Что происходит внутри сети, которая на примере огромного количества размеченных данных учится распознавать эмоции на лицах людей? Если что-то типа конволюционной сети учится выбирать черты, характерные каждой эмоции и заучивает их с огромного массива данных, то будет ли это необходимым этапом, чтобы потом эти эмоции воспроизвести? Мне любопытно выслушать разные мнения на этот счет, так что делитесь тем, что знаете и кидайте в меня ссылками!



tg-me.com/blue_arrakis/349
Create:
Last Update:

Робот-эмпат и обучение с подкреплением

Искусственный интеллект пытается воспроизвести интеллект, и хотя есть такие штуки, как эмоциональный интеллект, ИИ, в первую очередь, направлен на когнитивные способности и мышление. Я считаю себя сильным эмпатом. Если мучается близкий человек - я мучаюсь почти так же. И хотя негативные эмоции эмпатировать легче, я думаю это просто потому, что они сильнее, и недавно я поняла, что сильные положительные эмоции я тоже легко считываю и перенимаю (это мое мнение, не подкрепленное чтением научной литературы). Недавно я подумала, а почему никто не пробовал (или пробовал?) сделать робота-эмпата, который только бы и делал, что зеркалил эмоции и как-то взаимодействовал с объектом отзеркаливания, утешал бы его? Натренировать такую сеть мне кажется несложным в парадигме обучения с подкреплением (reinforcement learning, дальше буду называть его RL), чем лучше воспроизводится эмоциональная реакция - тем больше за это вознаграждение.

Это может показаться бесполезной и тривиальной вещью, но мне кажется тут все не так просто и можно заносить типичную дилемму из ИИ. Если что-то выглядит и движется как утка… Если вы не можете отличить эмоции робота от человеческих, то как можно доказать, что он не чувствует их точно так же, как и мы? Это же как тест Тьюринга, только не на интеллект, а на эмоции, а тест Тьюринга машины стали проходить уже давным давно. Все это конечно придумала не я. Помимо самого факта схожести эмоциональных реакций, Рейчел сама не знает, репликант она или человек. В дизайне репликанта просто нет такого знания. Если сети никогда не говорить, что эмоции сети не настоящие и не человеческие, то доказать их “машинность” или несостоятельность будет еще сложнее.

Недавно у адептов RL вышла провокационная статья под названием “Reward is enough” - достаточно вознаграждения. Авторы утверждают, что нейробиологи / когнитивисты и компания изучают различные когнитивные функции, такие как память, язык, восприятие, как отдельные сферы, которые полезны для разных вещей и функционально по-разному вносят вклад в повышение приспособленности. Они говорят, что это путь в никуда. На самом деле конечной целью любого поведения можно считать максимизацию вознаграждения, и только благодаря этой цели, по пути к вознаграждению, можно развить кучу побочных ступеней в виде памяти, языка, и тд, которые помогут именно максимизировать вознаграждение. Вознаграждение, естественно, понимается в самом широком смысле - от базовых потребностей до интеллектуального превосходства или просто веселья. Аналогично RL, где функцией вознаграждения может служить что угодно, как например высокая степень отзеркаливания эмоций. Авторы приводят в пример AlphaZero у которого конечной целью (вознаграждением) было выигрывать в Go у соперника, а по пути к этой цели развилось огромное количество сложных игровых стратегий. У каждой стратегии есть своя ценность, но если мы будет изучать функцию каждой стратегии изолированно, то мы не поймем, почему AlphaZero стал настолько успешен.

С точки зрения парадигмы “достаточно вознаграждения” можно легко отстаивать позицию, что если долго тренировать робота максимально правдоподобно зеркалить эмоции, то не будет ничего удивительного, если в итоге он эти эмоции разовьет в себе. Ну или разовьет какие-то еще хитрые стратегии, чтобы добиться этой цели, и на множество этих стратегий было бы интересно взглянуть, ведь это своеобразный искусственный и в каком-то смысле эволюционировавший укороченный путь.

Уже написав все это я стала думать, действительно ли весь ИИ направлен скорее на когнитивные способности, и скорее всего конечно нет. Что происходит внутри сети, которая на примере огромного количества размеченных данных учится распознавать эмоции на лицах людей? Если что-то типа конволюционной сети учится выбирать черты, характерные каждой эмоции и заучивает их с огромного массива данных, то будет ли это необходимым этапом, чтобы потом эти эмоции воспроизвести? Мне любопытно выслушать разные мнения на этот счет, так что делитесь тем, что знаете и кидайте в меня ссылками!

BY Blue_Arrakis




Share with your friend now:
tg-me.com/blue_arrakis/349

View MORE
Open in Telegram


Blue_Arrakis Telegram | DID YOU KNOW?

Date: |

How Does Bitcoin Mining Work?

Bitcoin mining is the process of adding new transactions to the Bitcoin blockchain. It’s a tough job. People who choose to mine Bitcoin use a process called proof of work, deploying computers in a race to solve mathematical puzzles that verify transactions.To entice miners to keep racing to solve the puzzles and support the overall system, the Bitcoin code rewards miners with new Bitcoins. “This is how new coins are created” and new transactions are added to the blockchain, says Okoro.

Look for Channels Online

You guessed it – the internet is your friend. A good place to start looking for Telegram channels is Reddit. This is one of the biggest sites on the internet, with millions of communities, including those from Telegram.Then, you can search one of the many dedicated websites for Telegram channel searching. One of them is telegram-group.com. This website has many categories and a really simple user interface. Another great site is telegram channels.me. It has even more channels than the previous one, and an even better user experience.These are just some of the many available websites. You can look them up online if you’re not satisfied with these two. All of these sites list only public channels. If you want to join a private channel, you’ll have to ask one of its members to invite you.

Blue_Arrakis from us


Telegram Blue_Arrakis
FROM USA