人工知能と人間「信頼回復」が必要...IEEE(米国電気電子学会)がAI倫理指針

ロボティア編集部2016年12月17日(土曜日)

 米国電気電子学会(以下、IEEE)は12月13日、「Ethically Aligned Design」という記事を発表した。これはIEEEまで含む、国際技術者団体としては初となる人工知能の倫理と関連した基礎文書だ。文書作成には、科学、政府、企業、学術団体から、人工知能、法律、倫理、哲学、政策関係者が100人余り参加した。

 なお、IEEEは米国規格協会(ANSI)によって、米国国家規格を開発するように許可された認証組織形態の標準開発機構。世界各国の電気および電子技術分野の学者、技術者などを中心に、140カ国、40万人の会員を有する世界最大の技術者団体だ。

 136ページにおよぶ記事は、人工知能の製作に先立ち、注意を払うべき四つの争点(issue)を提示した。その争点とは「人権」、「責任」、「透明性」、そして「教育」だ。

 要点としてはまず、AI開発に先立ち、人権を侵害しているか否かを判断する必要があるということが示唆された。また、問題が発生した場合、その責任を追及できる基準=ものさしを設置する重要性についても強調している。

 また記事は、人工知能の開発過程から透明性が維持されなければならず、社会において「何をしているか」理解できるようにする必要があるとする。また、人工知能の誤用を防止するため、国家、もしくは社会的に認識を共有するための装置が設けられる必要があるとも主張した。

 IEEEは、これまでの人工知能が人類の普遍的価値ではなく、特定の層の利益に偏ってきたとも指摘している。いくつかの階層に不利益をもたらし、偏見を量産して、階層間、あるいは個人間の葛藤を引き起こす要因として作用してきたと懸念している。

 IEEEはまた、一部、人工知能開発に関するガイドラインはつくられているものの、基準が明確でなく、また、社会的構造と相反するケース多かったとする。「人間と人工知能との間の信頼関係を回復する」ためには、人工知能の価値基準を明確に確立することを急がなければならないと主張している。