|
19일 요미우리신문은 오는 29~30일 일본 군마현 다카사키시에서 열리는 G7 디지털·기술장관회의에서 '책임 있는 AI' 실현을 위한 행동계획이 채택될 전망이라고 보도했다. G7이 AI 관련 행동계획을 채택하는 것은 처음이다.
행동계획은 급속도로 발전하고 있는 AI가 사회에 미치는 영향이 매우 중대하다는 점을 지적하고, 민주주의와 인간중심이라는 가치를 기반으로 개발할 것을 촉구할 방침이다. 현재 각국은 국내 제도와 사업자간 협의를 통해 자체적으로 AI를 규제하고 있지만, 향후 G7간 기술과 평가 기준을 공유해 일관성 있는 거버넌스를 수립하기로 했다.
아울러 생성형 AI가 미치는 잠재적 영향에 대한 분석과 연구를 서두르고, 사업자 등 관계단체와 협력해 AI 이용확대로 발생하는 과제 대책을 마련하기로 했다.
최근 생성형 AI가 여러 분야에서 다양하게 활용되면서 이에 걸맞는 적절한 기준과 규제가 필요하다는 지적이 제기되기 시작했다. 특히 생성형 AI가 기존 데이터를 기반으로 한다는 점에서 개인정보가 침해를 받을 수 있다는 우려가 적지 않다.
블룸버그통신은 이스라엘에 거점을 둔 벤처기업 '팀8(team8)'의 보고서를 인용해 생성형 AI를 사용하는 기업은 고객정보 및 기업기밀 유출, 이에 따른 소송에 휘말릴 가능성이 크다고 18일 보도했다.
미국 마이크로소프트(MS)와 알파벳 등 AI 경쟁에 뛰어든 빅테크 기업들은 챗봇의 기능개선을 위해 인터넷에서 수집한 방대한 데이터들을 모델로 학습시키고 있다. 보고서는 이러한 형태로 수집된 개인정보를 삭제하는 것은 매우 어렵다고 지적했다.
보고서는 기업들의 생성형 AI 이용이 기밀정보, 지적재산 등의 데이터 접근·처리로 이어질 위험이 '높은 수준'이라고 평가하면서도, 적절한 예방대책이 도입될 경우 '관리 가능한 수준'으로 완화된다고 설명했다.
개인정보 침해 위험을 들어 서방 국가 중 최초로 챗GPT 접속을 차단한 이탈리아 데이터보호청은 이날 "오픈AI가 유용한 조처를 할 의지를 보여준다면 오는 30일 챗GPT 접속을 다시 허용할 준비가 돼 있다"고 밝혔다.