skip_to_content
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア 로고
  • 전체 기사
  • 🗒️ 회원가입
  • 🔑 로그인
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message 개인정보처리방침 cookie_banner_and 쿠키 정책 cookie_banner_more_info

쿠키 설정

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

캘리포니아발 AI 규제 만들기: SB 53은 규제의 목표인가, 서막인가

캘리포니아발 AI 규제 만들기: SB 53은 규제의 목표인가, 서막인가

2025年10月01日 12:37

도입——“만들기 전에, 먼저 보여라”

미국 AI의 진원지 캘리포니아가 마침내 "투명성"을 기치로 한 주법을 선택했다. 주지사 개빈 뉴섬이 서명한 SB 53은 급속히 진화하는 프론티어 AI(LLM 등 대규모 기반 모델)에 대해 "안전 대책을 외부에 지속적으로 공개할 것"을 의무화한다. 지난해, 더 강력한 규제를 내세운 SB 1047이 "혁신을 저해한다"는 이유로 거부된 반성을 바탕으로, 이번에는 “가시화”에 중점을 둔 것이 가장 큰 특징이다.The Verge


SB 53으로 무엇이 바뀌는가

포인트는 5가지다.

  1. 프레임워크 공개 의무: 대형 AI 개발자는 자사가 참고하는 국내외 표준이나 업계의 베스트 프랙티스를 포함한 “프론티어 AI의 안전 프레임워크”를 웹에서 공개하고, 업데이트가 있을 경우 30일 이내에 이유와 함께 공지한다.The Verge

  2. 사건 보고의 경로: AI 기업과 일반 시민이 중대한 안전 사건을 주의 위기 관리 기관에 보고할 수 있는 스킴을 정비.Governor of California

  3. 내부 고발자 보호 및 집행: 프론티어 모델에 의한 중대한 건강 및 안전 위험의 고발자를 보호. 위반 시 민사 벌금.Governor of California

  4. CalCompute 구상: 주 내에 공공 컴퓨팅 클러스터를 설립하는 검토 컨소시엄을 창설하여, 안전하고 공정하며 지속 가능한 AI 연구를 지원.Governor of California

  5. 매년의 검토: 기술 발전이나 국제 표준에 따라 주의 IT 부서가 개정을 권고.Governor of California


또한 보도에 따르면, 대상은 대규모 AI 기업이며, 중대한 위험의 보고 기한(예: 15일 이내)이나 건당 최대 100만 달러의 벌금 등, 실무적인 압박도 명시된다. 적용 기준으로 매출 5억 달러 초과 기업을 상정한 설명이 주목된다.Reuters


왜 “투명성”으로 방향을 잡았는가——SB 1047에서의 반성

2024년의 SB 1047은, 훈련 비용 1억 달러 초과 모델도 포함하여, 더 깊이 있는 테스트와 책임 규정을 포함하는 내용으로, 산업 측의 반발을 불러일으켜 주지사가 거부. 이에 뉴섬 주지사는 연구자에게 대안의 작성을 요청하고, 그 보고를 토대로 SB 53이 재구성되었다. 즉, SB 53은 "감독보다 먼저 공개"를 우선시하고, 합의 가능한 최소한의 라인에서의 합의 형성을 목표로 한 “두 번째 라운드”라고 할 수 있다.The Verge


무엇이 “포함되지 않았는가”

지지파가 성과로 간주하는 한편, 제3자 평가의 의무화나, 개발자에게 직접적인 책임(라이어빌리티)을 부과하는 강한 틀은 제외되었다. 결과적으로, 기업이 제시하는 프레임워크가 “임의의 베스트 프랙티스”의 모음에 그칠 수 있는 점, 벌칙이 제한적이고 실효성이 부족할 가능성이 지적되고 있다.The Verge


산업계의 분열——누가 지지하고, 누가 반대했는가

상징적인 것은 Anthropic의 명확한 지지 표명이다. 협상을 거쳐 "안전 프레임워크의 공개와 내부 고발 보호"는 진전이라고 평가했다. 한편, Meta는 주 수준의 법 정비에 대항하는 슈퍼 PAC을 설립하고, OpenAI는 주지사에게 보낸 서한에서 "EU의 행동 규범(CoP)이나 미 연방 기관과의 안전 협정에 참여하는 기업은, 주 요구에 대한 대체 준수로 취급해야 한다"고 주장. 주별 불일치를 회피하고, 연방 및 국제 틀과 정합시키는 “경로”를 요구하고 있다.The Verge


산업 단체도 반대의 목소리를 높였다. **CTA(전미 민생 기술 협회)**는 의회 단계부터 반대 서한을 제출하고, Chamber of Progress도 "모호한 의무가 혁신을 저해한다"고 비판. 주 패치워크화에 대한 우려가 강하다.cta.tech


실무적 영향——“법령 준수의 가시화”가 KPI가 된다

SB 53은, 모델의 위험성의 본질을 직접 통제하는 법률은 아니다. 하지만 공급 측의 설명 책임을 가시화하고, 감사 가능성을 높이는 부작용이 크다. CIO나 조달 부문에서 보면,

  • 벤더의 안전 프레임워크의 내용 및 업데이트 이력을 구매 조건에 포함시킬 수 있다

  • 중대한 사건의 보고 타임라인이 비교 가능해지고, 위험 비교의 자료가 늘어난다

  • 내부 고발의 보호가, 윤리 통보 채널의 정비를 지원한다
    는 “사용 방법”이 생긴다. 반면, 스타트업에는 고정 비용이 부담된다. 공표 자료의 작성 및 개정, 표준과의 매핑, 위험 분류의 정의, 법무 검토 등이 분기별 의식이 될 수 있다.ciodive.com


어디까지 위험을 포착하고 있는가

Vox 등의 해설은, SB 53이 상정하는 "파국적 위험"의 임계값(예: 다수 사망자나 거액 손실)이나 15일 이내의 보고 등의 운영상을 전한다. 다만, 편향이나 정신 건강 등 가까운 피해는 사정 외가 되기 쉽다는 비판도 있다. 즉, SB 53은 **“꼬리가 굵은 위험”에 초점을 맞춘 법률**로, 일상적인 해악 대책은 별도의 트랙에서 보완할 필요가 있다.Vox


SNS의 반응——X에서 읽어보는 “기대와 불안”

 


  • 지지(안전파): Anthropic 공동 창업자 Jack Clark는 X에서 SB 53 지지를 명확히 했다. "프론티어 AI의 행동을 이해하기 위한 데이터가 증가한다"고 환영했다.X (formerly Twitter)

  • 제도 설계의 우려: OpenAI는 앞서 언급한 서한에서 EU 행동 규범이나 미 연방 기관의 틀과의 상호 승인을 제안. 주를 초월한 정합성을 요구하는 입장을 드러냈다.OpenAI CDN

  • 주 패치워크 비판: CTA는 X에서 "전미의 통일 프레임이야말로 필요하다"고 게시. 주별 규제는 분단과 비용 증가를 초래한다고 주장.X (formerly Twitter)

  • 정치적 응수: 제안자인 스콧 위너 상원의원은 X에서, SB 53이 혁신과 안전의 양립을 도모한다고 발신. 메시지 전쟁은 계속되고 있다.X (formerly Twitter)

  • ##HTML

← 기사 목록으로 돌아가기

문의하기 |  이용약관 |  개인정보처리방침 |  쿠키 정책 |  쿠키 설정

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア All rights reserved.