EU AI Act – Part 1

EU AI Act를 top-down approach로 분석해보겠습니다.

2024. 07. 23.기준

EU AI Act는 13개의 chapters에 걸쳐 있는 113개의 articles로 구성되어 있습니다. Recitals는 180개, Annexes는 13개입니다.

내용이 방대하기 때문에 몇 가지 점만 일단 발췌하여 언급하도록 하겠습니다.

목차는 아래와 같습니다.

Chapter 구성

ChapterOriginalKorean
Chapter IGeneral Provisions일반 규정
Chapter IIProhibited Artificial Intelligence Practices금지되는 인공지능의 사용행위
Chapter IIIHigh-Risk AI System고위험 인공지능 시스템
Chapter IVTransparency Obligations for Providers and Deployers of Certain AI Systems and GPAI Models특정 AI 시스템 및 GPAI 모델의 제공자 및 배포자를 위한 투명성 의무
Chapter VGeneral Purpose AI Models일반 목적 AI 모델
Chapter VIMeasures in Support of Innovation혁신 지원 조치
Chapter VIIGovernance거버넌스
Chapter VIIIEU Database for High-Risk AI Systems고위험 인공지능 시스템을 위한 EU 데이터베이스
Chapter IXPost-Market Monitoring, Information Sharing, Market Surveillance시판 후 모니터링, 정보 공유, 시장 감시
Chapter XCodes of Conduct and Guidelines행동 강령 및 지침
Chapter XIDelegation of Power and Committee Procedure권한 위임 및 위원회 절차
Chapter XIIConfidentiality and Penalties비밀 유지 및 처벌
Chapter XIIIFinal Provisions최종 규정

Chapter 구성에서 볼 수 있는 EU AI Act의 특성은 아래와 같습니다.

Prohibited Artificial Intelligence Practices와 High-Risk AI System의 구분

금지되는 AI Practices와 고위험 AI Systems에 대하여 별도의 chapter로 규정하고 있습니다.

EU AI Act가 AI system을 금지되는 시스템과 고위험 시스템으로 구분하고 있다고 한 글들이 있는데 그것은 정확한 설명이 아닙니다.

금지되는 것은 특정 (목적) 달성을 위한 행위 또는 특정 사용 행위이지 시스템이 아닙니다.

Chapter II의 Prohibited Artificial Intelligence Practices 내 Article 5에서는 금지되는 인공지능의 사용행위에 대하여, Chapter III에서는 High-Risk 인공지능 시스템에 대하여 각 기술하고 있습니다.

Prohibited Artificial Intelligence Practices(금지되는 인공지능 사용행위)

금지되는 인공지능 사용행위는 아래와 같습니다.

  • 잠재의식적 및 조작적 기법: 사람의 행동을 왜곡하여 중대한 피해를 초래하거나 초래할 가능성이 있는 AI 시스템의 사용, 출시, 서비스 투입이 금지됩니다.
  • 취약성 악용: 나이, 장애 또는 특정 사회적, 경제적 상황으로 인해 개인이나 특정 집단의 취약성을 악용하여 중대한 피해를 초래하거나 초래할 가능성이 있는 AI 시스템의 사용, 출시, 서비스 투입이 금지됩니다.
  • 사회적 평가 및 분류: 사회적 행동이나 개인적 특성을 기반으로 자연인이나 집단을 평가하거나 분류하여 부당하거나 과도한 대우를 초래하는 AI 시스템의 사용, 출시, 서비스 투입이 금지됩니다.
  • 범죄 위험 평가: 프로파일링을 기반으로 범죄를 저지를 위험을 평가하거나 예측하기 위해 AI 시스템을 사용하는 경우가 금지됩니다. 단, 객관적이고 검증 가능한 사실에 기반한 인간 평가를 지원하는 경우는 제외됩니다.
  • 얼굴 인식 데이터베이스 생성: 인터넷이나 CCTV 영상을 무차별적으로 스크래핑하여 얼굴 인식 데이터베이스를 생성하거나 확장하는 AI 시스템의 사용, 출시, 서비스 투입이 금지됩니다.
  • 감정 추론: 직장이나 교육 기관에서 감정을 추론하기 위해 AI 시스템을 사용하는 경우, 의료 또는 안전 목적으로 사용되는 경우를 제외하고 금지됩니다.
  • 생체 인식 분류: 생체 데이터를 기반으로 개인의 인종, 정치적 견해, 종교 등을 추론하거나 분류하는 AI 시스템의 사용, 출시, 서비스 투입이 금지됩니다. 단, 법적으로 획득한 생체 데이터셋을 사용하는 경우는 제외됩니다.
  • 실시간 원격 생체 인식 시스템: 공공 장소에서 법 집행 목적으로 실시간 원격 생체 인식 시스템을 사용하는 경우, 특정 조건을 충족하는 경우에만 허용됩니다. 긴급 상황에서는 사전 승인 없이 사용할 수 있으며, 사용 후 지체 없이 승인 요청이 이루어져야 합니다.
  • 법 집행 목적: 공공 장소에서 법 집행 목적으로 실시간 원격 생체 인식 시스템을 사용하는 경우, 관련 국가 법률에 따라 승인 요청, 발급, 이행 및 보고에 대한 세부 규칙을 명시해야 합니다. 국가 시장 감시 당국 및 데이터 보호 당국에 사용을 통지하고 연례 보고서를 제출해야 합니다.
  • 기타 금지: 다른 EU 법률을 위반하는 AI의 사용 행위

위 내용을 보면 AI를 이용한,

사람의 심리나 행동을 조작할 수 있는 행위, 차별행위를 금지하고 있으며 국가가 사회 및 국민을 감시하는데 악용될 수 있는 범죄 위험 평가, 개인에 대한 감정, 성향 등의 추론, 생체 인식 등은 예외적으로 허용하고 있음을 알 수 있습니다.

인권을 중시하는 유럽답습니다.

High-Risk AI System(고위험 인공지능 시스템)

Chapter III에서는 다섯 개의 section에 걸쳐 Article 6에서부터 Article 49가 고위험 인공지능 시스템과 관련된 내용을 규정하고 있습니다.

Section의 내용은 아래와 같습니다.

Section 1: Classification of AI Systems as High-Risk(인공지능 시스템의 ‘고위험’ 분류)

Section 2: Requirements for High-Risk AI Systems(고위험 인공지능 시스템에 대한 요구사항)

Section 3: Obligations of Providers and Deployers of High-Risk AI Systems and Other Parties(고위험 인공지능 시스템 제공자 및 배포자의 의무와 기타 당사자들의 역할)

Section 4: Notifying Authorities and Notified Bodies(고위험 인공지능 시스템 관련 당국에 대한 통보 및 그 통보)

Section 5: Standards, Conformity Assessment, Certificates, Registration(고위험 인공지능 시스템의 표준, 적합성 평가, 인증, 등록)

EU AI Act는 고위험 인공지능 시스템을, 주로 인간의 안전 또는 안전과 관련된 사항과 결부되어 사용되는 인공지능 시스템으로 정의하고 있습니다. EU AI Act의 Annex III(부속서 III) High-Risk AI Systems는 아래 영역에서 사용되는 AI 시스템을 고위험 인공지능 시스템이라 분류하고 있습니다.

1. 생체 인식

  • 원격 생체 인식 시스템(단순 인증 목적 제외)
  • 민감한 속성에 따른 생체 분류 시스템
  • 감정 인식 시스템

2. 중요 인프라

  • 디지털 인프라, 도로 교통, 물, 가스, 난방, 전기 공급 관리에 사용되는 AI 시스템

3. 교육 및 직업 훈련

  • 접근, 입학 결정, 학습 결과 평가, 금지된 행동 감지 등에 사용되는 AI 시스템

4. 고용 및 노동 관리

  • 채용, 인재 선발, 근로 조건 결정, 근로 성과 평가에 사용되는 AI 시스템

5. 필수 서비스 접근

  • 공공 서비스 자격 평가, 신용 평가, 보험 위험 평가, 긴급 전화 평가 등에 사용되는 AI 시스템

6. 법 집행

  • 범죄 피해 위험 평가, 증거 신뢰성 평가, 재범 위험 평가, 프로파일링 등에 사용되는 AI 시스템

7. 이민, 망명 및 국경 통제 관리

  • 보안 위험, 불법 이민 위험, 건강 위험 평가, 망명 및 비자 신청 검토, 국경 통제 관리에 사용되는 AI 시스템

고위험 인공지능 시스템의 범위가 상당히 넓은 것을 알 수 있습니다. 학습 결과, 신용 평가, 보험 위험 평가하는 것도 고위험 인공지능 시스템이라고 하니 실제로는 대부분의 인공지능 시스템이 고위험 인공지능 시스템이라 분류될 듯 합니다.

고위험 인공지능 시스템에 대한 나머지 내용에 대해서는 Part 2에서 다루도록 하겠습니다. Part 2에서는 고위험 인공지능 시스템의 CE marking(일종의 인증 마크)에 대해서 자세히 언급할 예정입니다.

General Purpose AI Models를 별도로 규정하고 있는 점

General Purpose AI Models에 대해서 별도의 chapter를 두어(Chapter V) 규정하고 있습니다.

General Purpose AI Models에 대해서는 Annex XIII(부속서 XIII)에 그 판별 기준을 두고 있습니다.

Annex XIII는 아래와 같습니다(원문과 한국어 번역본).

For the purpose of determining that a general-purpose AI model has capabilities or an impact equivalent to those set out in Article 51(1), point (a), the Commission shall take into account the following criteria:

(a) the number of parameters of the model;

(b) the quality or size of the data set, for example measured through tokens;

(c) the amount of computation used for training the model, measured in floating point operations or indicated by a combination of other variables such as estimated cost of training, estimated time required for the training, or estimated energy consumption for the training;

(d) the input and output modalities of the model, such as text to text (large language models), text to image, multi-modality, and the state of the art thresholds for determining high-impact capabilities for each modality, and the specific type of inputs and outputs (e.g. biological sequences);

(e) the benchmarks and evaluations of capabilities of the model, including considering the number of tasks without additional training, adaptability to learn new, distinct tasks, its level of autonomy and scalability, the tools it has access to;

(f) whether it has a high impact on the internal market due to its reach, which shall be presumed when it has been made available to at least 10 000 registered business users established in the Union;

(g) the number of registered end-users.

일반 목적 AI 모델이 제51조(1)항 (a)에서 설정한 능력 또는 영향과 동등한지 여부를 결정하기 위해, 위원회는 다음 기준을 고려해야 합니다:

(a) 모델의 매개변수 수;

(b) 데이터 세트의 품질 또는 크기, 예를 들어 토큰을 통해 측정;

(c) 모델 학습에 사용된 계산량, 부동 소수점 연산으로 측정하거나 학습의 예상 비용, 예상 학습 시간 또는 예상 에너지 소비와 같은 다른 변수의 조합으로 표시;

(d) 모델의 입력 및 출력 방식, 예를 들어 텍스트에서 텍스트(대형 언어 모델), 텍스트에서 이미지, 다중 모달리티 및 각 모달리티의 고영향 능력을 결정하는 최신 기술 임계값, 그리고 특정 입력 및 출력 유형(예: 생물학적 서열);

(e) 모델의 능력에 대한 벤치마크 및 평가, 추가 학습 없이 수행할 수 있는 작업 수, 새로운 독립적인 작업을 학습할 수 있는 적응성, 자율성 및 확장성 수준, 접근할 수 있는 도구;

(f) 그 범위로 인해 내부 시장에 미치는 고영향 여부, 이는 연합 내에서 최소 10,000명의 등록된 비즈니스 사용자에게 제공된 경우로 추정됨;

(g) 등록된 최종 사용자 수.

General Purpose AI Models와 General Purpose AI Models with systemic risk의 구분

Chapter V: General Purpose AI Models의 Section 2는 Obligations for Providers of General Purpose AI Models, Section 3는 Obligations for Providers of General Purpose AI Models with Systemic Risk입니다. Systemic Risk가 없는 범용 인공지능 모델과 있는 모델에 따라 다른 책임을 부과하고 있습니다.

Systemic risk(시스템 위험, 체계적 위험)은 무엇일까요? EU AI Act는 systemic risk를 아래와 같이 정의하고 있습니다.

Article 3: Definitions

(65) ‘systemic risk’ means a risk that is specific to the high-impact capabilities of general-purpose AI models, having a significant impact on the Union market due to their reach, or due to actual or reasonably foreseeable negative effects on public health, safety, public security, fundamental rights, or the society as a whole, that can be propagated at scale across the value chain;

(65) ‘시스템적 위험’이란, 일반 목적 AI 모델의 높은 영향력을 가진 능력에 특정한 위험을 의미하며, 해당 모델의 범위로 인해 연합 시장에 중대한 영향을 미치거나 공중 보건, 안전, 공공 보안, 기본 권리 또는 사회 전체에 실제적이거나 합리적으로 예측 가능한 부정적인 영향을 미칠 수 있는 위험을 말하며, 이는 가치 사슬 전체에 걸쳐 대규모로 전파될 수 있습니다.

Systemic risk가 있는 경우 아무래도 그렇지 않은 경우보다 더 많은 의무가 부과될 것입니다. Systemic risk가 있는 범용 인공지능 AI의 provider는 그렇지 않은 경우보다 아래의 의무를 더 이행하여야 합니다.

  • 위험 평가의 범위와 심도: 시스템적 위험을 가진 모델은 더 광범위하고 심도 있는 위험 평가 및 완화 조치를 요구.
  • 사이버 보안: 시스템적 위험을 가진 모델은 사이버 보안 보호 수준을 강화해야 함.
  • 사고 보고: 시스템적 위험을 가진 모델은 사고 발생 시 더 엄격한 기록 및 보고 의무가 있음.
  • 모델 평가 방법: 표준화된 프로토콜과 도구를 사용하여 모델의 적대적 테스트를 포함한 평가를 수행해야 함.

Part I은 여기까지 하고 Part 2에서 고위험 인공지능 시스템의 내용을 이어서 다루도록 하겠습니다.

감사합니다.

시대에 뒤떨어진 웹 보안: HTTPS를 안 쓰는 공공기관 웹사이트 2곳

법원 전산망 해킹 사건

법원 전산망이 해킹된 사건이 있었다.

https://namu.wiki/w/법원%20전산망%20해킹%20사건

위 링크의 내용에 의하면 2021년부터 2023년까지 2년에 걸쳐 대한민국 법원 전산망이 해킹되었다.

해킹당한 대법원 전산망 관리자 계정의 비밀번호는 ‘P@ssw0rd’, ‘123qwe’, ‘oracle99’ 등 짧고 쉬운 문자열로 구성되어 있었고, 일부 계정은 6년에서 7년이 넘도록 비밀번호를 한 번도 바꾸지 않은 것으로 확인되었다. 이러한 허술한 보안체계가 해킹의 시발점이 되었다고 해도 과언이 아니다.

그런데 위 법원 사이트보다 더 허술한 국가(공공기관) 웹사이트가 있다.

법원보다 더 허술해보이는 국가(공공기관) 웹사이트

인터넷 등기소와 키프리스(특허정보검색서비스)는 아직도 secured web(https)이 아닌 http를 그대로 쓰고 있다.

HTTP(HyperText Transfer Protocol)와 HTTPS(HyperText Transfer Protocol Secure)의 차이는 보안성에 있다. HTTP는 인터넷 상에서 데이터를 주고받기 위한 기본적인 프로토콜로, 데이터를 암호화하지 않고 전송하기 때문에 중간에서 제3자가 데이터를 도청하거나 변조할 수 있는 위험이 있다.

반면 HTTPS는 HTTP에 SSL/TLS(Secure Sockets Layer/Transport Layer Security) 프로토콜을 추가하여 데이터를 암호화해서 전송한다. 이를 통해 데이터의 기밀성, 무결성, 인증성을 보장한다. HTTPS는 클라이언트와 서버 간의 통신을 암호화하여 중간에서 데이터를 가로채거나 변조하는 것을 방지한다.

또한, 서버의 신원을 확인할 수 있는 인증서를 사용하여 피싱 공격 등의 위협을 줄인다. 이로 인해 HTTPS는 특히 금융 거래, 로그인 정보 전송 등 민감한 데이터를 주고받을 때 필수적으로 사용된다. 사용자는 웹 브라우저 주소창에서 자물쇠 아이콘을 통해 HTTPS 연결 여부를 확인할 수 있으며, 이는 웹사이트의 신뢰성을 높이는 요소로 작용한다.

인증서 하나만 발급받아서 적용하면 될 일인데도 하지 않고 있다.

대한민국 몇몇 공공기관에는 보안 의식이 아예 없음을 드러내는 단적인 예이다.

https가 아닌 http를 사용하는 인터넷 등기소 http://www.iros.go.kr

보안에 허술한 인터넷 등기소 웹사이트

보안에 허술한 키프리스 웹사이트

https 아닌 http를 사용중인 보안이 허술해 보이는 키프리스(특허정보검색서비스)

KT의 악성코드를 이용한 해킹 행위의 심각성

초대형 ISP KT의 고객 해킹

대한민국 초대형 ISP(Internet Service Provider) KT가 자사 고객들에 대한 사전 및 사후 통지 없이 고객의 PC에 악성코드를 심어 고객 PC의 파일들을 숨기는 해킹(hacking)을 저질렀습니다. 웹하드를 사용하는 KT 고객 PC에 ‘악성코드’를 심은 건데, 피해 고객이 60만 명에 달할 것으로 추정되어 경찰도 수사 중에 있습니다(관련 기사 아래 링크).

KT는 웹하드 업체가 악성 프로그램 서비스로 데이터를 주고 받게 해 이것을 제어하기 위한 조치였다고 해명했습니다. KT가 말하는 웹하드 업체의 악성 프로그램 서비스라 함은 (서버 – 클라이언트 구도가 아닌) 클라이언트들 사이에서 서로 데이터를 주고 받게 하는 p2p(peer-to-peer) 서비스를 제공하는 그리드 프로그램을 의미하는 것인데 그리드 프로그램은 웹하드 업체 뿐 아니라 네이버 치지직, 아프리카 TV에서도 사용되는 것으로 그리드 프로그램 그 자체만을 가지고 악성 프로그램이라 할 수는 없는 것입니다.

 

웹하드 프로그램을 이용하는 고객의 PC 뿐 아니라 타 그리드 프로그램을 이용하는 고객 또는 기타 자사에 해가 된다고 KT가 판단한 프로그램을 사용하는 고객에 대해서도 KT가 이러한 해킹 행위를 했을 가능성을 배제할 수 없습니다.

 

KT의 고객 PC 해킹 행위는 일반 가정이나 회사를 무단 침입하여 그 거주자가 알 수 없게 실내의 물건을 숨겨 놓아 이용할 수 없게 한 것으로 볼 수 있습니다. KT는 60 만 명이 넘는 주거에 침입하여 재물을 손괴(재물을 부수거나 숨겨서 그 효용을 해하는 행위)한 것과 같은 행위를 한 것입니다.

 

KT의 악성코드 해킹 행위의 의미 – IT 사회에 대한 반헌법적 행위

우리는 통신의 자유가 침해되는 것에 민감합니다. 타인과의 대화 또는 정보 교류의 내용이 감청된다면 이는 명백히 통신의 자유를 침해하는 행위라 할 수 있습니다. KT의 고객 PC 해킹 행위는 통신 감청보다 훨씬 더 심각한 국민의 권리 침해 행위이자 사회 파괴 행위라 할 수 있습니다.

 

초고도화된 IT 사회인 현대 사회에서, 국경을 넘나드는 수 많은 주체들의 정보 생산 및 교류, 재화 및 문화의 생성과 유통, 국가, 기업 및 개인의 업무 등 인류가 하는 모든 행위들은 서버, 클라이언트, 통신, 클라우드, 암호화, 인터넷 기술 등의 IT를 통하여 이루어지고 있습니다. 이러한 온라인 사회는 그 구성원인 정보 주체들의 PC, 스마트폰 등의 device가 그 정보 주체의 의사에 따라 통제될 수 있고, 관련된 기본 privacy는 보호되어야 하는 전제하에 성립 및 존속될 수 있으며 이는 인터넷, 클라우드 서비스 등을 제공하는 대형ISP(Internet Service Provider), CSP(Cloud Service Provide)에 대한 신뢰에 그 근원적 기반을 두고 있습니다.

 

이러한 점에서 KT의 고객 PC 해킹 행위는 국민 개개인의 통신의 자유와 정보 주체의 기본적인 평온을 침해하고 초고도화 IT 사회인 우리 사회의 근원적 기반을 뿌리채 흔들어버리는, 궁극적으로는 우리 사회를 파괴할 수도 있는 중대한 반헌법적 위법 행위라 할 것입니다.

 

KT는 IT사회의 가장 중요한 인프라(infrastructure)라고 할 수 있는 인터넷 서비스를 제공하는 회사입니다. 그러함에도 불구하고 KT는 이러한 중차대한 임무를 수행하는 주체로서의 경각심이 거의 없는 것 처럼 보입니다. 1850만 명 분의 개인정보유출, 인터넷 장애 등 사건, 사고가 끊이지 않고 있습니다.

 

집단소송 – 국민의 응징

집단소송으로 국민의 힘을 보여줘야 합니다.

 

아래 링크 중 하나를 통하여 KT 악성코드 집단소송에 참여 부탁드립니다.
IT 연구원 출신 이홍섭 변호사가 직접 수행합니다.

 

https://e-sue.com/2024/06/21/class-action-kt

이메일 주소, 주소 및 향후 소송 참여자들에게 받을 예정인 등록번호(주민등록번호, 법인등록번호)등 소송 참여자들의 정보는 모두 암호화하여 DB에 저장하는 등 안전하게 관리하겠습니다. 소송 참가비는 5만원 이하의 금액(민사소송 청구금액, 형사 고소 등 업무량 고려)으로 합리적으로 결정하여 추후 이메일로 알려드리겠습니다.

 
 

감사합니다.

집단소송 – KT 악성코드 해킹 사건

KT 악성코드 집단소송

KT가 고객을 해킹했다?!

<네이버 뉴스 링크>
<Youtube 기사 링크 – JTBC>

초대형 ISP(Internet Service Provider)인 KT가 사전 통지 또는 안내 없이 고객의 PC에 악성코드를 심었다(해킹)는 건 매우 심각한 사실입니다.
위 유투브 내용에서는 웹하드 사용 고객 PC에만 그렇게 했다고 하지만, (KT 마음에 안드는, 웹하드를 사용하지 않았던) 다른 고객의 PC에 어떤 일을 했을 지 모릅니다.

매우 심각한 문제이기 때문에 집단소송을 진행하려 합니다.

IT 연구원 출신 ES 법률사무소 이홍섭 변호사가 직접 진행합니다.

아래 링크에서 신청해주세요.

KT 악성코드(해킹) 사건 집단소송 원고 신청