본문 바로가기
사회와 정치

AI안전연구소 초대 소장 김명주 교수 프로필 학력 나이 고향 주요 이력

by 지식과 지혜의 나무 2024. 11. 12.
반응형

김명주 교수 프로필

이름: 김명주
출생연도: 1963년
고향: 전라북도 익산시
직업: 컴퓨터공학자, AI 윤리 및 신뢰성 전문가, AI 안전연구소 초대 소장


학력

김명주 교수는 이리고등학교를 졸업한 후 서울대학교에 진학하여 컴퓨터공학을 전공했습니다. 서울대학교에서 컴퓨터공학 학사를 마친 후, 같은 대학에서 컴퓨터공학 석사박사 학위를 취득하며, 인공지능과 컴퓨터공학 분야에 대한 깊은 학문적 배경을 갖추게 되었습니다. 김 교수의 학문적 여정은 그가 AI 분야에서 윤리와 안전성을 강조하게 된 배경이 되었습니다.


주요 경력

김명주 교수는 1995년부터 서울여자대학교 정보보호학부 교수로 재직하면서, 정보 보호와 AI 신뢰성 분야에서 활발히 연구 활동을 펼쳐왔습니다. 그의 연구는 AI와 정보 보호의 윤리적 과제를 다루며, 기술 발전에 따른 사회적 책임을 강조해 왔습니다. 주요 경력은 다음과 같습니다.

  • 바른AI연구센터 센터장: 김 교수는 바른AI연구센터에서 AI의 윤리적 사용과 사회적 책임을 강조하는 연구를 주도하며, AI 기술의 윤리적 사용에 대한 사회적 기준을 제시하는 데 기여했습니다.
  • 국제인공지능윤리협회(IAAE) 회장: IAAE의 회장으로서, 김명주 교수는 AI의 윤리적 기준 설정을 위해 다양한 국제 활동을 펼쳤으며, AI 기술의 공공 안전성과 신뢰성을 높이기 위한 국제 협력에 힘썼습니다.
  • OECD GPAI(Global Partnership on AI) 익스퍼트 멤버: 김 교수는 경제협력개발기구(OECD) 산하 글로벌 AI 파트너십의 전문가 멤버로 활동하면서, AI 윤리와 안전성 문제에 대해 국제 사회와 협력해왔습니다. 특히 AI 개발에 있어 책임 있는 정책과 기술적 프레임워크를 마련하는 데 중요한 역할을 했습니다.
  • 인공지능윤리정책포럼 위원장: AI 윤리정책포럼의 위원장으로서, AI 기술의 윤리적 활용과 법적 규제에 대해 정책 제안을 해왔으며, AI가 사회에 미칠 수 있는 부정적 영향에 대한 대비책을 마련하는 데 앞장섰습니다.
  • 기타 경력: 한국저작권위원회 부위원장, 한국인터넷윤리학회 학회장, 인터넷규제개선공론화협의회 위원장, 육군3사관학교 석좌교수, 미국 펜실베니아대학교 객원연구원 등으로도 활동하며, 다양한 분야에서 인공지능과 정보 보호의 윤리적 과제를 다루었습니다.

AI안전연구소 초대 소장 임명

2024년 11월 12일, 김명주 교수는 한국전자통신연구원(ETRI) 부설 기관으로 설립된 AI안전연구소의 초대 소장으로 임명되었습니다. AI안전연구소는 AI 기술의 고도화로 인해 발생하는 다양한 잠재적 위험과 윤리적 문제에 대응하기 위해 설립된 기관으로, 주요 활동은 다음과 같습니다.

  1. AI 안전성 평가: AI 기술이 도입되는 다양한 분야에서 안전성을 확보하기 위한 평가 기준과 시스템을 개발하며, AI 기술이 인간의 안전을 위협하지 않도록 다각도로 검증하는 역할을 수행합니다.
  2. 정책 연구 및 자문: AI의 윤리적, 법적 문제를 다루기 위한 정책 연구를 수행하고, AI 관련 법적 규제와 가이드라인을 마련하는 데 필요한 자문 역할을 제공합니다.
  3. 국내외 협력: 국내 산학연 협력뿐만 아니라 글로벌 AI 안전 연구소 및 각국의 연구 기관들과 협력하며, AI 안전성 연구를 국제적으로 선도하는 목표를 가지고 있습니다.

김명주 소장은 AI 윤리와 안전성 분야에서 축적한 전문성을 바탕으로, AI안전연구소가 글로벌 AI 안전 연구의 중심으로 자리 잡을 수 있도록 리더십을 발휘할 것으로 기대되고 있습니다. 연구소장의 임기는 임명일로부터 3년으로, 김 교수는 2027년 11월까지 연구소를 이끌며 AI의 안전성과 신뢰성 확립에 중점을 둘 예정입니다.


AI안전연구소란?

AI안전연구소는 AI 기술의 고도화로 인한 잠재적 위험에 대응하고, 윤리적·안전한 AI 개발을 촉진하기 위해 설립된 연구 기관입니다. 한국전자통신연구원(ETRI) 산하에 위치하며, AI가 인류에게 미칠 수 있는 위험을 줄이고 안전한 기술 사용을 촉진하기 위해 연구소 내에서 다양한 프로젝트와 협력 연구를 진행합니다. AI안전연구소는 특히 윤리적 기준을 수립하고, 기술적 위험을 사전에 평가하는 시스템을 구축하여 AI가 사회에 긍정적인 기여를 할 수 있도록 하는 것을 목표로 합니다.

반응형