Telegram Group & Telegram Channel
AI safety

для человека, который увлекся ИИ от страха, попадание в AI safety было вопросом времени. это междисциплинарная область на стыке computer science и философии, которая занимается вопросами безопасности применения ИИ и направлена на обеспечение того, чтобы любые разработанные системы и модели ИИ работали так, как первоначально предполагали разработчики, не приводя к непредвиденным последствиям типа уничтожения человечества.

на масштабе повседневности это сводится к развитию методов для контроля и регуляции за тем, чтобы ИИ не обманывал, не воровал, делал что говорят и вообще был хорошим и пушистым.

вопросы эти беспокоят людей давно — вокруг них построены почти все сюжеты известных техно-дистопий. также вы, возможно, слышали о законах робототехники Айзека Азимова:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

звучит складно, но например эти правила не мешают роботу убить вашу собаку во время решения задачи “прибраться в квартире” — формального противоречия не будет. Азимов это прекрасно понимал и свои сюжеты тоже часто строил вокруг вложенных в эти законы противоречий. а спустя ~40 лет после описания трех правил еще одно нулевое:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

ну то есть за все хорошее (для человечества), против всего плохого. так победим! но к сожалению, никакой набор из N правил не может быть полным, потому что всегда найдется какая-то лазейка между ними всеми, которую вы не предусмотрели, а ИИ использовал, чтобы хакнуть постановку задачи.

завтра я улетаю в Англию на школу по AI safety, чему очень рад. буду держать вас в курсе, а вы пишите, если будут вопросы по этой теме. также если кто-то здесь живет в Лондоне или Манчестере, буду рад повидаться!

#AI_safety



tg-me.com/levels_of_abstraction/48
Create:
Last Update:

AI safety

для человека, который увлекся ИИ от страха, попадание в AI safety было вопросом времени. это междисциплинарная область на стыке computer science и философии, которая занимается вопросами безопасности применения ИИ и направлена на обеспечение того, чтобы любые разработанные системы и модели ИИ работали так, как первоначально предполагали разработчики, не приводя к непредвиденным последствиям типа уничтожения человечества.

на масштабе повседневности это сводится к развитию методов для контроля и регуляции за тем, чтобы ИИ не обманывал, не воровал, делал что говорят и вообще был хорошим и пушистым.

вопросы эти беспокоят людей давно — вокруг них построены почти все сюжеты известных техно-дистопий. также вы, возможно, слышали о законах робототехники Айзека Азимова:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

звучит складно, но например эти правила не мешают роботу убить вашу собаку во время решения задачи “прибраться в квартире” — формального противоречия не будет. Азимов это прекрасно понимал и свои сюжеты тоже часто строил вокруг вложенных в эти законы противоречий. а спустя ~40 лет после описания трех правил еще одно нулевое:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

ну то есть за все хорошее (для человечества), против всего плохого. так победим! но к сожалению, никакой набор из N правил не может быть полным, потому что всегда найдется какая-то лазейка между ними всеми, которую вы не предусмотрели, а ИИ использовал, чтобы хакнуть постановку задачи.

завтра я улетаю в Англию на школу по AI safety, чему очень рад. буду держать вас в курсе, а вы пишите, если будут вопросы по этой теме. также если кто-то здесь живет в Лондоне или Манчестере, буду рад повидаться!

#AI_safety

BY уровни абстракции


Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283

Share with your friend now:
tg-me.com/levels_of_abstraction/48

View MORE
Open in Telegram


telegram Telegram | DID YOU KNOW?

Date: |

Telegram Auto-Delete Messages in Any Chat

Some messages aren’t supposed to last forever. There are some Telegram groups and conversations where it’s best if messages are automatically deleted in a day or a week. Here’s how to auto-delete messages in any Telegram chat. You can enable the auto-delete feature on a per-chat basis. It works for both one-on-one conversations and group chats. Previously, you needed to use the Secret Chat feature to automatically delete messages after a set time. At the time of writing, you can choose to automatically delete messages after a day or a week. Telegram starts the timer once they are sent, not after they are read. This won’t affect the messages that were sent before enabling the feature.

That strategy is the acquisition of a value-priced company by a growth company. Using the growth company's higher-priced stock for the acquisition can produce outsized revenue and earnings growth. Even better is the use of cash, particularly in a growth period when financial aggressiveness is accepted and even positively viewed.he key public rationale behind this strategy is synergy - the 1+1=3 view. In many cases, synergy does occur and is valuable. However, in other cases, particularly as the strategy gains popularity, it doesn't. Joining two different organizations, workforces and cultures is a challenge. Simply putting two separate organizations together necessarily creates disruptions and conflicts that can undermine both operations.

telegram from us


Telegram уровни абстракции
FROM USA