가장 강력한 AI 시스템의 개발자가 안전 테스트 결과 및 기타 중요한 정보를 미국 정부와 공유하도록 요구합니다. 국방물자생산법(Defense Production Act)에 따라 이 명령은 국가 안보, 국가 경제 안보 또는 국가 공중 보건 및 안전에 심각한 위험을 초래하는 기반 모델을 개발하는 회사가 모델을 훈련할 때 연방 정부에 통보해야 하며 이를 공유해야 한다고 요구합니다. 모든 레드팀 안전 테스트 결과. 이러한 조치를 통해 기업이 AI 시스템을 공개하기 전에 AI 시스템의 안전, 보안, 신뢰성을 보장할 수 있습니다.
AI 시스템이 안전하고 신뢰할 수 있는지 확인하는 데 도움이 되는 표준, 도구 및 테스트를 개발하십시오. 국립표준기술원(National Institute of Standards and Technology)은 공개 전에 안전을 보장하기 위해 광범위한 레드팀 테스트에 대한 엄격한 표준을 설정할 것입니다. 국토안보부는 이러한 표준을 중요 인프라 부문에 적용하고 AI 안전보안위원회를 설립할 예정입니다. 에너지부와 국토안보부는 또한 화학, 생물학, 방사선, 핵 및 사이버 보안 위험뿐만 아니라 중요 인프라에 대한 AI 시스템의 위협도 다룰 것입니다. 이는 AI 안전 분야를 발전시키기 위해 정부가 취한 가장 중요한 조치입니다.
생물학적 합성 스크리닝을 위한 강력한 새 표준을 개발하여 AI를 사용하여 위험한 생물학적 물질을 가공할 때 발생할 수 있는 위험으로부터 보호하세요. 생명과학 프로젝트에 자금을 지원하는 기관은 이러한 표준을 연방 자금 지원의 조건으로 설정하여 적절한 검사를 보장하고 AI로 인해 잠재적으로 악화될 수 있는 위험을 관리하기 위한 강력한 인센티브를 생성할 것입니다.