Как опытный аналитик с многолетним опытом работы в технологическом секторе, я считаю эти последние разработки в области исследований безопасности ИИ чрезвычайно многообещающими. Сотрудничество между Институтом безопасности искусственного интеллекта США и ведущими компаниями, такими как Anthropic и OpenAI, является свидетельством растущего признания того, что безопасность должна быть главным приоритетом при разработке передовых систем искусственного интеллекта.
Филиал Национального института стандартов и технологий (NIST) Министерства торговли США, известный как Институт безопасности искусственного интеллекта США, объявил о партнерских отношениях. Эти партнерские отношения, закрепленные меморандумами о взаимопонимании (МОВ), заключаются с двумя известными компаниями в области искусственного интеллекта: Anthropic и OpenAI. Цель этих альянсов — обеспечить легкий доступ к новейшим моделям искусственного интеллекта, позволяя институту проводить всесторонние оценки как до, так и после выпуска, гарантируя безопасность этих моделей после их обнародования.
В рамках меморандумов о взаимопонимании (MOU) Институт безопасности искусственного интеллекта США объединит усилия с Anthropic и OpenAI для совместных исследовательских проектов, в первую очередь направленных на оценку способностей ИИ и выявление потенциальных угроз безопасности. Ожидается, что это партнерство будет способствовать развитию методологий устранения рисков, связанных со сложными технологиями искусственного интеллекта. Элизабет Келли, глава Института безопасности искусственного интеллекта США, подчеркнула важность безопасности в технологическом прогрессе и выразила энтузиазм по поводу предстоящего технического сотрудничества с этими компаниями, занимающимися искусственным интеллектом. Она подчеркнула, что эти соглашения знаменуют собой значительный шаг вперед в постоянных усилиях института по обеспечению ответственной разработки ИИ.
Помимо этого сотрудничества, Американский институт безопасности искусственного интеллекта планирует предложить предложения по повышению безопасности в моделях Anthropic и OpenAI. Эта работа будет проводиться в тесном сотрудничестве с Британским институтом безопасности искусственного интеллекта, что символизирует глобальную инициативу, направленную на содействие безопасным и надежным достижениям в области технологий искусственного интеллекта.
Работа, проводимая Институтом безопасности искусственного интеллекта США, основана на обширном опыте NIST в содействии прогрессу в области измерительной науки, технологий и стандартизации. Эти совместные оценки будут способствовать более широким усилиям NIST в области искусственного интеллекта, которые совпадают с Указом администрации Байдена-Харриса об искусственном интеллекте. Цель состоит в том, чтобы способствовать созданию безопасных, надежных и надежных систем ИИ, опираясь на обещания ключевых новаторов ИИ перед администрацией относительно их ответственного развития.
Согласно отчету Reuters, законодатели Калифорнии в среду одобрили спорный законопроект о безопасности ИИ. Этот законопроект сейчас находится в руках губернатора Гэвина Ньюсома, у которого есть время до 30 сентября либо отклонить его, либо утвердить в качестве закона. Законопроект требует проверок безопасности и других защитных мер для моделей ИИ, которые превышают определенные ограничения по стоимости или вычислительной мощности. Некоторые технологические компании утверждают, что эти требования потенциально могут замедлить технологические инновации.
Смотрите также
- Анализ Portal: тенденции рынка криптовалют PORTAL
- Прогноз нефти
- Анализ FLOKI: тенденции рынка криптовалют FLOKI
- Анализ Aethir: тенденции рынка криптовалют ATH
- Курс евро к злотому прогноз
- Анализ Banana Gun: тенденции рынка криптовалют BANANA
- Анализ биткоина: тенденции рынка криптовалют BTC
- Курс юаня прогноз
- ВИ.РУ акции прогноз. Цена VSEH
- Анализ CoW Protocol: тенденции рынка криптовалют COW
2024-08-29 23:03