弁財天

ゴフマン「専門家を信じるのではなく、自分自身で考えて判断せよ」

LAWS(Lethal Autonomous Weapons Systems) update3

【日本の議論】AI兵器の規制「利用目指す中国は脅威」「開発には歯止め必要」 2019.12.15 12:00 プレミアム
自律型致死兵器システム(LAWS)の規制に関する国際会議で話し合う各国の代表ら=11月、スイス・ジュネーブ(共同)
 高度な人工知能(AI)を搭載し、人間が関与せず相手を殺傷できる自律型致死兵器システム(LAWS=ローズ)を国際的に規制する初の指針が11月に決まった。AIの軍事利用と日本の対応について、元陸上自衛隊東部方面総監の渡部悦和氏と東京工業大名誉教授の広瀬茂男氏に聞いた。   (小野晋史)

渡部悦和氏「規制しても実効性は全くない」
 --日本政府は、人間が関与しない完全自律型のLAWSを開発しないとの立場だ
 「政府の立場を支持する。最終的な攻撃の判断などに人間の関与を残しておくのはベターだと思う。ただ、AIの開発をこれ以上制限するのはやめるべきだ。完全な自律ではない、自律的な兵器そのものを禁止するような立場は取るべきではない」
 --LAWSの開発を規制しようとする国際社会の動きをどう思うか
 「規制しても実効性は全くない。民主国家の人権派はLAWSを完全に禁止させようとしているが、中国は開発を目指す。彼らには制限がないからだ。かつて対人地雷やクラスター爆弾の禁止条約を日本は批准したが、中国だけでなく米国やロシアも批准していない。それと同じで、LAWSを禁止する条約ができても彼らは批准しない。自らの手を縛るようなまねはしないだろう」
 --日本は将来、LAWSで武装した中国やロシアと向き合わねばならないのか
 「そう考えるべきだ。中国は米国との間で世界一争いをやっており、完全な自律型のAIを搭載したシステムが戦い合う世界を最終的なターゲットとしてにらんでいる。もっとも、完全な自律のシステムを達成するのは現代の技術でもなかなか難しい。大切なのは、完全でなくても、AIを用いた自律的なシステムがある点だ」
 --中国では無人航空機をはじめ、AIの軍事利用が急速に進んでいる
 「中国政府は2030年にAIで世界一になると言っている。人民解放軍も(民間技術の軍事転用などを行う)軍民融合の戦略の下、民間のAI技術を軍事の全ての分野に適用しようとしている。キーワードは『AIによる軍事革命』だ。例えば14億人のビッグデータは彼らのものすごい財産で、民主国家のような情報収集の制限がないため、無制限に集めてAIの開発に活用できる。彼らは真剣にやっており、いずれ人民解放軍は最先端の軍隊になってしまうだろう」
 --日本はどうすべきか
 「このままでは日本が守れなくなるという危機感を持つべきだ。新たな防衛大綱では陸海空に加えて宇宙やサイバー、電磁波といった領域も重視しているが、この全てで積極的にAIを適用する必要がある。これから必ず、尖閣諸島近くの空や海で中国の無人機に遭遇する。東シナ海や南シナ海で、無人の潜水艇による潜水艦の探知システムを構築されたら非常に大きな脅威だ。防衛に携わる者は、最悪に備えないといけない」

 わたなべ・よしかず 昭和30年、愛媛県生まれ。東京大工学部卒。陸上自衛隊に入隊し第2師団長などを経て平成23年に東部方面総監。25年に退官後、富士通システム統合研究所安全保障研究所長。

広瀬茂男氏「開発には歯止め必要」
 --LAWSの開発に反対する国際的な公開書簡に2017年、唯一の日本人として署名した
 「AIの開発がこのまま進んだら、非常に危ないと考えた。個人を認識する能力などが上がり、かなり知的な判断ができるようになってきた。なかでもLAWSは正確な攻撃で大きな被害を与えるだけでなく、味方の損失を避けられるため戦争へのハードルを下げかねない」
 --AIは近年、急速に開発が進んでおり、もはや私たちの暮らしに欠かせない
 「確かにAIは現代社会のキーテクノロジーで、もっと可能性を追求すべきだが、悪用も簡単だ。例えば自動車の自動運転で、安全のために人や障害物を避けるのではなく、逆にぶつけるようにソフトウエアを書き換えればテロに利用できる。ビッグデータをうまく使えば民族を見分けることも可能となり、特定の民族だけを攻撃できる。これはもはやSFの世界ではないと感じる。しかもLAWSをはじめとしたAIのプログラムは一度作るといくらでもコピーでき、容易に拡散してしまう」
 --LAWSは特定通常兵器使用禁止制限条約(CCW)の締約国会議で開発規制に向けた初の指針がまとまった
 「人間を関与させる方向で指針をまとめた点は評価できる。でも、規制はとても難しい。今の機械はみんな簡単にAIを組み込んでしまうのに、どうやって規制すればよいのか。AIはソフトウエアの世界で、銃や地雷のようにはっきりとした姿がない。この点がAIの怖いところでもある」
 --指針には法的拘束力がなく、今後も国際社会は規制の在り方を議論していく
 「実効性があるかどうかは別としても、LAWSの開発を規制しないわけにはいかないだろう。常識的な国家であれば規制にはそれなりの効果がある。また、変な国やテロリストなどが使い出したら非常に危ないが、何も規制する動きがないと制裁を加える根拠も無くなり、それこそ開発に歯止めが利かなくなる。AIの危険性を常にはっきりさせ、何とかしようと考え続けていく以外にないのではないか」
 --日本は完全自律型のLAWSを開発しない方針だ
 「それで良いと思うが、最先端の技術を使わないと防衛にならない。相手がLAWSを含め、AIでいかに攻撃してくるかを考えて準備することは、絶対にすべきだと思う。何をしてくるか分からない相手に対し、『こちらが何もしなければ、攻めてこない』などということは、あり得ないのだから」

 ひろせ・しげお 昭和22年、東京都生まれ。東京工業大大学院理工学研究科博士課程修了。同大教授などを経て平成25年から現職。ロボット工学の専門家として世界的に知られ、ベンチャー企業の会長も務める。

【記者の目】「自衛隊もAIの積極活用を」
 武装した無人機が自らの判断で人間を殺傷するLAWSは、近年急速に進化するAIが持つ負の側面だ。ターゲットの排除を冷徹に実行するドローンやロボットに襲われた場合、生身の人間はどこまで耐えられるだろうか。
 まだ姿を見せていないLAWSを規制する国際的な動きは、この漠然とした不安から始まり、一定の成果を見せている。日本政府も開発しないという。
 だが、国同士の関係もLAWSと同様に冷徹だ。規制の議論と並行し、AIの軍事利用は着実に進んでおり、特に中国が甚だしい。
 2年前に欧米の囲碁AI「アルファ碁」がトップ棋士に勝ち、世界を驚かせた。この図式は、AIで武装した人民解放軍と人間主体の自衛隊に置き換えられる。かつて米軍の新型爆撃機B29に竹やりで挑もうとした愚を繰り返さぬよう、自衛隊もAIを積極的に活用することが、日本の守りにつながるはずだ。 
(小野晋史)

自律型致死兵器システムとは、今あるシステムを攻略してターゲットを死亡に誘導する兵器のことだ。オレオレ詐欺やアクセルとブレーキを踏み間違えたみたいな事故のこと。攻略されると人間には事故や詐欺にしか見えないので対策などできない。StuxnetをAIがコントロールする時代が来たのだな…

兵器がドローンやミサイルだと思うのは時代遅れな考え方である。そんなコストのかかる非効率な手法を人工知能が選択するはずがない。例えばイバンカの声紋を真似たキュレーターがトランプのスマホに電話をかけて核ミサイルのパスコードを聞き出すソーシャルハッキングの時代が来ている。

森友のときに財務省の公文書は400ヶ所以上も改ざんされていた。それを元に戻す作業で職員が3人も死んでいる。致死性(Lethal)とはミサイルのことではない。ある特定の状況で致命的な改ざんをしてしまう人工知能のことだ。

ストレージシステムの冗長化アーキテクチャや設定を改ざんされれば二度と回復できない障害が起きるw。

人工知能 ✕ Stuxnet = LAWS = GALILEO

日本電子計算のNTTデータのEMCストレージ不具合で全国50自治体システムが停止。復旧できなくなるw

【ディープステイト崩壊】森友文書の改ざんでw、財務省理財局自殺3人行方不明3人

投稿されたコメント:

コメント
コメントは無効になっています。