Telegram Group & Telegram Channel
Привет, эксперты. Возвращаемся к зарубежным технологическим дорожным картам. На этот раз у нас в руках оказалась дорожная карта «По развитию ИИ-технологий», разработанная весной этого года двухпартийной рабочей группы Сената США. Документ полезен уже тем, что дает нам базовое представление о том, какие риски видят американские законодатели в развитии ИИ. Вы будете смеяться, но у наших с ними очень много общего.

Документ содержит не перечень конкретных мер, а, скорее, ряд разбитых на треки рекомендаций рабочей группы по поддержке и регулированию ИИ-технологий в США. Ниже мы в разбивке по трекам перечисляем самое
интересное.

1. Поддержка инноваций США в области искусственного интеллекта
Правительство должно искать возможность финансировать все потребности отрасли из бюджета. Речь идет о выделении на поддержку индустрии как минимум $32 млрд ежегодно. Деньги пойдут на разработки, а также исследования в области базовых принципов работы ИИ: прозрачность, конфиденциальность, совместимость и безопасность.

Необходимо расширить применение пока еще пилотного проекта Национальный исследовательский ресурс по ИИ (NAIRR). Проект направлен на предоставление дорогостоящих вычислительных мощностей, наборов данных, моделей ИИ и других инструментов академическим исследователям ИИ, которые часто испытывают трудности с доступом к таким ресурсам.

Часть инициатив касается использования ИИ в обороне. Так, рабочая группа считает целесообразным разработать платформу, которая позволит командирам обучаться, а затем и эффективно использовать ИИ в военных целях. Судя по документу, речь идет и о том, чтобы задействовать ИИ при принятии решений.

2. ИИ и трудовые ресурсы
Нужно разработать законодательство, которое обеспечит граждан возможностями
обучения, переподготовки и повышения квалификации для успешного участия в экономике с использованием искусственного интеллекта.

Еще одно предложение – расширить применение госпрограмм по привлечению талантов в области ИИ в США.

3. Эффективное и безопасное использование ИИ
Американские законодатели осознают риски того, что ИИ-решения будут работать по принципу «черного ящика», когда не известны ни принципы работы решений, ни их цели. Поэтому группа призывает разработать меры регулирования, которые сделают механизмы ИИ-решений прозрачными

Нужно разработать регулирование, которое защитит детей от угроз технологий, основанных на ИИ. Речь идет, в том числе о рекомендательных механизмах социальных сетей

Необходимо запретить использование ИИ-технологий при работе социальных рейтингов и похожих решений

Требуется изучить подходы к защите граждан от использования ИИ в мошеннических целях

4. Выборы и демократия, авторские права
Необходимо ввести маркировку дипфейков для защиты от дезинформации на выборах

Требуется разработать механизмы, запрещающие ИИ распространять личные данные граждан

Нужно разработать законодательство обязать поставщиков онлайн-платформы информировать аудиторию о происхождении контента. Проще говоря, зритель должен знать, что заставка в сериале на HBO сгенерирована ИИ. Как и сценарий, актер и т.д.

Требуется изучить возможность разработки законодательных актов, которые защитят граждан от несанкционированного использования ИИ их голосов, изображений, фотографий и т.д.

5. Защита от рисков ИИ и обеспечение национальной безопасности
Группа рекомендует государству поддерживать инициативы, связанные с тестированием новых ИИ-решений. Речь идет, в том числе о работе красных команд и Bug Bounty.

Требуется изучить плюсы и минусы внедрения ИИ с открытым исходным кодом и проприетарным кодом

Нужно расширить для талантливых разработчиков ИИ возможности при поступлении на службу в армию

Целесообразно учитывать риски, при которых злоумышленники будут использовать ИИ для разработки химического и бактериологического оружия, а также не допускать доступа злоумышленников к ИИ мощностям.

Необходимо ужесточить экспортный контроль за технологиями, способствующими развитию искусственного интеллекта.

Такие вот дела, товарищи.
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/russiancouncil/5842
Create:
Last Update:

Привет, эксперты. Возвращаемся к зарубежным технологическим дорожным картам. На этот раз у нас в руках оказалась дорожная карта «По развитию ИИ-технологий», разработанная весной этого года двухпартийной рабочей группы Сената США. Документ полезен уже тем, что дает нам базовое представление о том, какие риски видят американские законодатели в развитии ИИ. Вы будете смеяться, но у наших с ними очень много общего.

Документ содержит не перечень конкретных мер, а, скорее, ряд разбитых на треки рекомендаций рабочей группы по поддержке и регулированию ИИ-технологий в США. Ниже мы в разбивке по трекам перечисляем самое
интересное.

1. Поддержка инноваций США в области искусственного интеллекта
Правительство должно искать возможность финансировать все потребности отрасли из бюджета. Речь идет о выделении на поддержку индустрии как минимум $32 млрд ежегодно. Деньги пойдут на разработки, а также исследования в области базовых принципов работы ИИ: прозрачность, конфиденциальность, совместимость и безопасность.

Необходимо расширить применение пока еще пилотного проекта Национальный исследовательский ресурс по ИИ (NAIRR). Проект направлен на предоставление дорогостоящих вычислительных мощностей, наборов данных, моделей ИИ и других инструментов академическим исследователям ИИ, которые часто испытывают трудности с доступом к таким ресурсам.

Часть инициатив касается использования ИИ в обороне. Так, рабочая группа считает целесообразным разработать платформу, которая позволит командирам обучаться, а затем и эффективно использовать ИИ в военных целях. Судя по документу, речь идет и о том, чтобы задействовать ИИ при принятии решений.

2. ИИ и трудовые ресурсы
Нужно разработать законодательство, которое обеспечит граждан возможностями
обучения, переподготовки и повышения квалификации для успешного участия в экономике с использованием искусственного интеллекта.

Еще одно предложение – расширить применение госпрограмм по привлечению талантов в области ИИ в США.

3. Эффективное и безопасное использование ИИ
Американские законодатели осознают риски того, что ИИ-решения будут работать по принципу «черного ящика», когда не известны ни принципы работы решений, ни их цели. Поэтому группа призывает разработать меры регулирования, которые сделают механизмы ИИ-решений прозрачными

Нужно разработать регулирование, которое защитит детей от угроз технологий, основанных на ИИ. Речь идет, в том числе о рекомендательных механизмах социальных сетей

Необходимо запретить использование ИИ-технологий при работе социальных рейтингов и похожих решений

Требуется изучить подходы к защите граждан от использования ИИ в мошеннических целях

4. Выборы и демократия, авторские права
Необходимо ввести маркировку дипфейков для защиты от дезинформации на выборах

Требуется разработать механизмы, запрещающие ИИ распространять личные данные граждан

Нужно разработать законодательство обязать поставщиков онлайн-платформы информировать аудиторию о происхождении контента. Проще говоря, зритель должен знать, что заставка в сериале на HBO сгенерирована ИИ. Как и сценарий, актер и т.д.

Требуется изучить возможность разработки законодательных актов, которые защитят граждан от несанкционированного использования ИИ их голосов, изображений, фотографий и т.д.

5. Защита от рисков ИИ и обеспечение национальной безопасности
Группа рекомендует государству поддерживать инициативы, связанные с тестированием новых ИИ-решений. Речь идет, в том числе о работе красных команд и Bug Bounty.

Требуется изучить плюсы и минусы внедрения ИИ с открытым исходным кодом и проприетарным кодом

Нужно расширить для талантливых разработчиков ИИ возможности при поступлении на службу в армию

Целесообразно учитывать риски, при которых злоумышленники будут использовать ИИ для разработки химического и бактериологического оружия, а также не допускать доступа злоумышленников к ИИ мощностям.

Необходимо ужесточить экспортный контроль за технологиями, способствующими развитию искусственного интеллекта.

Такие вот дела, товарищи.

BY РСМД


Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283

Share with your friend now:
tg-me.com/russiancouncil/5842

View MORE
Open in Telegram


РСМД Telegram | DID YOU KNOW?

Date: |

Telegram has exploded as a hub for cybercriminals looking to buy, sell and share stolen data and hacking tools, new research shows, as the messaging app emerges as an alternative to the dark web.An investigation by cyber intelligence group Cyberint, together with the Financial Times, found a ballooning network of hackers sharing data leaks on the popular messaging platform, sometimes in channels with tens of thousands of subscribers, lured by its ease of use and light-touch moderation.

РСМД from us


Telegram РСМД
FROM USA