백악관은 연방 기관 내에서 인공 지능(AI)의 안전한 확장을 보장하기 위해 12월 1일까지 미국인의 권리와 안전을 보호하기 위한 "구체적인 안전장치"를 시행할 것을 의무화했습니다.
오늘 미국 예산관리처가 발표한 이 지침은 각 기관에 AI 기술이 대중에게 미치는 영향을 면밀히 모니터링하고 평가할 것을 촉구합니다. 여기에는 알고리즘 차별의 위험을 줄이기 위한 조치를 취하고 정부의 AI 사용에 대한 투명성을 높이는 것이 포함됩니다.
이제 연방 기관은 철저한 위험 평가를 수행하고 AI 애플리케이션에 대한 명확한 운영 및 거버넌스 지표를 수립해야 합니다. 정부가 AI를 언제 어떻게 활용하는지에 대해 시민들에게 알리기 위해서는 공개적인 공개가 필요할 것입니다.
앞서 조 바이든 대통령은 10월에 국방물자생산법을 발동하는 행정명령에 서명한 바 있습니다. 이 행정명령은 국가 안보, 경제, 공중 보건 또는 안전에 위험을 초래할 수 있는 AI 시스템 개발자가 기술을 대중에게 공개하기 전에 안전 테스트 결과를 미국 정부에 공개하도록 의무화하고 있습니다.
오늘 도입된 새로운 보호 조치는 항공 여행객이 검색 절차에 영향을 주지 않고 교통안전국의 안면 인식 기술을 거부할 수 있도록 하는 등 구체적인 사용 사례도 다루고 있습니다. 또한 연방 의료 환경에서는 AI 진단 도구의 결과를 확인하기 위해 사람의 감독이 필요합니다.
백악관은 또한 각 기관이 AI 사용 사례 목록을 공개하고 AI 사용 지표에 대해 보고해야 한다고 밝혔습니다. 또한 정부 소유의 AI 코드, 모델, 데이터도 위험하지 않다면 공개할 것으로 예상됩니다.
현재 연방 정부가 AI를 사용하는 사례로는 허리케인 피해 평가를 위한 연방재난관리청(FEMA)의 AI 활용, 질병 확산 예측 및 오피오이드 사용 감지를 위한 질병통제예방센터(CDC)의 AI 활용, 항공 교통 관리 및 혼잡한 대도시 지역의 이동 시간 개선을 위한 연방항공청(FAA)의 AI 적용 등이 있습니다.
이러한 이니셔티브를 지원하기 위해 백악관은 정부 운영에서 AI의 안전한 사용을 촉진하는 데 전념할 AI 전문가 100명을 채용할 계획입니다. 각 기관에는 60일 이내에 이러한 노력을 감독할 최고 AI 책임자를 임명할 수 있는 시간이 주어졌습니다.
또한 지난 1월, 바이든 행정부는 미국 클라우드 기업을 위한 새로운 규정을 제안했습니다. 이 규정은 기업이 "고객 파악" 규칙을 통해 외국 기업이 미국 데이터 센터를 사용하여 AI 모델을 훈련하고 있는지 여부를 확인하도록 요구합니다.
로이터 통신이 이 기사에 기여했습니다.이 기사는 AI의 지원으로 생성되고 번역되었으며 편집자에 의해 검토되었습니다. 자세한 내용은 우리의 이용 약관을 참조하십시오.