Как торговать этими акциями из России? >Подробная инструкция здесь<
Правительство Великобритании опубликовало всеобъемлющий документ, посвященный возможностям и рискам, связанным с пограничным искусственным интеллектом.
Премьер-министр Великобритании Риши Сунак выступил сегодня с речью о глобальной ответственности за противодействие рискам, отмеченным в докладе, и использование потенциала искусственного интеллекта. Сунак подчеркнул необходимость честного диалога о двойственной природе искусственного интеллекта: он предлагает беспрецедентные возможности, но в то же время представляет значительные опасности.
“Искусственный интеллект принесет новые знания, новые возможности для экономического роста, новые достижения в области человеческих способностей и шанс решать проблемы, которые, как мы когда-то думали, нам не по силам. Но это также приносит новые опасности и новые страхи”, — сказал Сунак.
“Итак, самое ответственное, что я должен сделать, — это обратиться к этим страхам лицом к лицу, дав вам уверенность в том, что мы обеспечим вашу безопасность, одновременно убедившись, что у вас и ваших детей есть все возможности для лучшего будущего, которые может принести искусственный интеллект.
“Поступать правильно, а не просто, означает быть честным с людьми относительно рисков, связанных с этими технологиями”.
В отчете рассказывается о быстром развитии frontier AI, опираясь на многочисленные источники. В нем освещаются различные точки зрения научного, экспертного и глобального сообществ относительно рисков, связанных со стремительной эволюцией технологии искусственного интеллекта.
Публикация состоит из трех ключевых разделов:
- Возможности и риски frontier AI: В этом разделе представлен дискуссионный документ, пропагандирующий дальнейшие исследования рисков, связанных с искусственным интеллектом. В нем описывается текущее состояние передовых возможностей искусственного интеллекта, потенциальные будущие улучшения и связанные с ними риски, включая вред обществу, неправильное использование и потерю контроля.
- Риски генеративного ИИ для безопасности до 2025 года: Основываясь на оценках разведывательных данных, в этом отчете описываются потенциальные глобальные преимущества генеративного ИИ, подчеркивая при этом возросшие риски для безопасности. Это подчеркивает расширение возможностей участников угроз и эффективность атак благодаря разработке генеративного искусственного интеллекта.
- Будущие риски пограничного ИИ: Подготовленный Правительственным управлением по науке, этот отчет исследует неопределенности в развитии пограничного ИИ, будущие системные риски и потенциальные сценарии развития ИИ до 2030 года.
Отчет, основанный на рассекреченной информации разведывательных агентств, посвящен генеративному искусственному интеллекту, технологии, лежащей в основе популярных чат–ботов и программного обеспечения для генерации изображений. В нем предвидится будущее, в котором искусственный интеллект может быть использован террористами для планирования биологических или химических атак, что вызывает серьезные опасения по поводу глобальной безопасности.
Сюл ван дер Леу, генеральный директор Deployteq, прокомментировал: “Приятно видеть, что правительство проявляет серьезный подход, предлагая отчет в преддверии саммита по безопасности на следующей неделе, однако необходимо сделать еще больше.
“Необходимы постоянные усилия по устранению рисков, связанных с искусственным интеллектом, и мы надеемся, что саммит внесет столь необходимую ясность, позволив компаниям и маркетологам пользоваться преимуществами, которые предлагает эта новая технология, не беспокоясь о негативной реакции”.
В докладе подчеркивается, что генеративный ИИ может быть использован для сбора знаний о физических нападениях со стороны негосударственных насильственных субъектов, включая создание химического, биологического и радиологического оружия.
Несмотря на то, что компании работают над внедрением мер предосторожности, в отчете подчеркивается разная эффективность этих мер. Препятствия на пути получения необходимых знаний, сырья и оборудования для таких атак уменьшаются, а искусственный интеллект потенциально ускоряет этот процесс.
Кроме того, в отчете предупреждается о вероятности того, что кибератаки, управляемые искусственным интеллектом, станут более быстрыми, эффективными и масштабными к 2025 году. Искусственный интеллект мог бы помочь хакерам имитировать официальный язык и преодолеть предыдущие проблемы, с которыми они сталкивались в этой области.
Однако некоторые эксперты поставили под сомнение подход правительства Великобритании.
Рашик Пармар MBE, генеральный директор BCS, Дипломированного института информационных технологий, сказал: “Более 1300 технологов и лидеров подписали наше открытое письмо, в котором ИИ называется силой добра, а не экзистенциальной угрозой человечеству.
“Искусственный интеллект не вырастет таким, как Терминатор. Если мы предпримем надлежащие шаги, это будет надежный второй пилот с наших первых школьных дней и до выхода на пенсию.
Саммит по безопасности ИИ будет направлен на стимулирование здоровой дискуссии о том, как бороться с пограничными рисками ИИ, включая злоупотребление негосударственными субъектами для кибератак или разработки биологического оружия, а также проблемы, связанные с системами ИИ, действующими автономно вопреки намерениям человека. Дискуссии на саммите также будут касаться более широких социальных последствий, таких как срыв выборов, предвзятость, преступность и безопасность в Интернете.
Клэр Траше (Claire Trachet), генеральный директор Trachet, прокомментировала: “Быстрорастущий характер искусственного интеллекта затрудняет правительствам поиск баланса между созданием эффективного регулирования, которое защищает интересы бизнеса и потребителей, не ограничивая инвестиционные возможности. Несмотря на то, что сейчас существуют некоторые формы управления рисками и публикуются различные отчеты, ни один из них не является по-настоящему скоординированным подходом.
“Приверженность правительства Великобритании безопасности ИИ заслуживает похвалы, но критика, связанная с саммитом, служит напоминанием о важности сбалансированного, конструктивного и дальновидного подхода к регулированию ИИ”.
Если судить по отчету правительства Великобритании, необходимость сотрудничества в принятии пропорциональных, но строгих мер по управлению рисками, создаваемыми искусственным интеллектом, является более насущной, чем когда-либо.
Глобальный саммит по безопасности искусственного интеллекта состоится в историческом парке Блетчли 1-2 ноября 2023 года.
Отказ от ответственности: Содержимое этого сайта не следует рассматривать как инвестиционный совет. Инвестирование носит спекулятивный характер. При инвестировании ваш капитал подвергается риску.