弁財天

ゴフマン「専門家を信じるのではなく、自分自身で考えて判断せよ」

偶然が重なる気持ち悪い事件をどうやって起こすのか? update18

「ペンタゴンの調達システムがぐちゃぐちゃなのでワトソンを招聘」w
【「官僚制の破壊者、もしくはデコーダー(解読者)と呼べる」ものを作りだそうというアイデア。Camron Gorguinpour米空軍調達室】
おぉぉー、これいいですな。うちのシステムにも導入したい。 システムを分割しコピペと細工ができるように改悪してるのでワトソンに裏仕様をい解読させて対策コードを書かせるわけですな。

土人官僚が複雑怪奇な官僚制度に裏の意図を隠そうとしても、ワトソンに解読させて、制度を逆手に取ったテロ作戦を立案するわけですな。なんつかペンタゴンらしい。

自作の人工知能音声対応システムで仕事をさせてみた→停職

2015年10月03日 自作の人工知能音声対応システムで仕事をさせてみた→停職

ニューヨーク市の職員が変わった原因で停職処分を受けていたことが明らかになりました。なんとこの職員は自分の声で電話対応できるという人工知能搭載の音声対応システムを作り勝手に導入していました。

アメリカの複数メディアによるとニューヨーク市の職員ロナルド・ディロンという人物が自作プログラムを使って電話対応をしていたとして停職20日の処分が下ったと報じています。実はこの報道、アメリカでは大きく取り上げられており、理由は彼の作ったプログラムがかなり高度な処理を行なっていたということで注目を集めています。

City Worker Fined for Talking in Robot Voice Does it Again - Civic Center - DNAinfo.com New York

記事によると、彼が作ったプログラムとは人工知能により自分の近い声で受け答えするというもので、実際に彼が当時仕事をしていたヘルプデスクにかかってくる様々な質問に対し人工知能を勝手に導入し対応していました。 その出来はかなり高度なもので、普通に電話対応を聞いた範囲では人間が行っているのかそれとも人口知能により行われているかは区別が付かなかったとしています。 しかし、この対応に疑問を感じた市民の通報により仕事をサボっていたロナルド・ディロンの存在が明らかになり停職が言い渡されました。

停職を受けたロナルド・ディロンは経営学修士(MBA)を取得しているという頭の良さで、ヘルプデスクに異動する前は健康福祉部のシステム開発を担当していたといいます(外部委託になり異動となったとのこと)

確かにヘルプデスクの仕事となると良く似た質問や苦情がくることになるので、それに対し淡々と対応するのであればプログラムでも良いと考えてしまったのでしょうか・・・。

City Worker Fined for Talking in Robot Voice Does it Again
うっは。このレベルか。これじゃ生の人間かどうかなんてわからないな。

最近の裁判は裁判員裁判でふつうの国民が裁判官をやってる。 なので「思い込む」ように状況証拠を仕込んでしまえば有罪にできることを意味してる。

事件の捜査と証拠と裁判は今までどおりのやり方で行われている。 そこにビッグデータを処理できるAI(人工知能)が登場。 人工知能はヒトが錯覚するような偶然をいくつもでっち上げ、誘導できる。 状況証拠の捏造。しかし犯人も裁判も昔のヒトなので真実だと完全に誤認識する。

トヨタがISISという車を製造していて、裾野に工場があり、秋葉原通り魔事件の犯人が働いていて、近くに米軍キャンプ富士と陸自学校があってCIA強制収容所のテロリスト製造を連想するような通り魔殺人が発生する理由でもある。

まぁたしかにあべしを筆頭に田母神とかデヴィとか金美齢とか在特会とか不正選挙で当選した国会議員とか、みんな情弱な昆虫のように簡単に誘導されていったよーな。AIの敷いた絨毯の上を歩かされたよーな。しかし子供が溺死したり工場労働者が通り魔になったというのは現実なんでしょーな。

ロータリアンの爺様達を「犬山のメッセージ」にいまどきのコンピュータ環境でどうやって殺人教唆するか設計してみた。

昔だったら占い師の類が唐突に登場して「何時何処に行きなさい。そうすると運命の人に出会える。」などとコントロールしていたのを、今なら2人を何時何処で遭遇させる条件や誘導方法を人工知能にビッグデータを探させることでできるわけですな。2人が絶対に偶然と思い込むよーな。

人が論理的に考えることは「もしこの条件の時はこうなる。」という無数のプロダクションルールから最適解を求めることで、エキスパートシステムと呼んでたっけ。IBMのヨークタウン・エキスパートシステムが登場したのは30年前の話。

あった。これだ→バッハがコンピューターになった!?「バッハ風」賛美歌を作ってしまう・・・AI実験システムを開発

ご参考資料 昭和63年8月18日
バッハがコンピューターになった!? 「バッハ風」賛美歌を作ってしまう・・・ AI実験システムを開発 (ニューヨーク州・ヨークタウンハイツ発 8月18日)

18世紀のドイツの作曲家、ヨハン・セバスチャン・バッハ(1685年~175 0年)の音楽をベースにして、コンピューターがハーモニーをつけるという、エキ スパートシステムを、IBMの一研究者がこのほど開発に成功しました。

IBMワトソン研究所のケマール・エブギオール(Kemal Ebcioglu )がその人で、彼が開発したこの実験的なプログラムは「CHORAL」(コーラ ル)と名付けられています。その基本的な仕組みは、コラール(賛美歌)の中心と なるソプラノの旋律をインプットすると、それに合わせ残りのベース、テナー、ア ルトの3つのパートを自動的に、しかも、バッハ風にアレンジして作りあげる、と いうものです。そして「CHORAL」はこれら4つのパートの楽譜を、一般に使 われている音譜表記で作りますので、それをコンピューターの端末画面で読ん だり、印刷したり、演奏させることもできます。

このエキスパートシステムは高度に専門的なアプリケーション・プログラムとして 書かれた複雑なソフトウェアです。そのため、運用には大量の情報と大型コンピュ ーターのパワーが必要になります。

今では日本語をサポートしてる。まぁこれがネトウヨの正体でしょーなw

2015/3/20付
ついに人工知能が銀行員に「内定」 IBMワトソン君

 人の言葉を理解する米IBMの認知型コンピューター「ワトソン」。米国生まれで母国語は英語だが猛勉強によって日本語を習得し、三井住友銀行から「内定」を得た。クイズ番組に興じていたワトソン君が、年内にも銀行マンとして日本で働き始める。

■ビッグデータ分析などで質問の答えを導き出す

三井住友銀行はコールセンターでの問い合わせ対応にワトソンを活用する

 「ATMの手数料を知りたいのですが」。銀行のコールセンターには日々、あいまいな質問が寄せられる。引き出しの手数料か振り込みのことか。キャッシュカードは自行と他行どちらのものか。あるいは他行のATMを使う場合か。条件によって答えは変わる。

 こうしたあいまいな質問にすらすらと答える次世代型のコールセンターが近々誕生する。三井住友銀がオペレーターの応対業務にIBMのワトソンを導入するのだ。

 ワトソンは利用者が入力した文章を自然言語処理の技術で解釈し、ビッグデータ分析などの技術によって質問の答えを導き出す。三井住友銀のオペレーターが顧客から受けた質問をキーボードで入力すると、ワトソンは5つの回答候補を瞬時に出す。回答は確からしい順に、その確率を付けて表示する。オペレーターは候補と確率を参考に、顧客に応答する。

 質問から回答を導くために必要な業務は、ワトソンにあらかじめ読み込ませる。1500項目の質問応答集、表計算ソフトで800シート分の業務マニュアル、過去の質問応答履歴などだ。

 さらに正答率を高めるための工夫を盛り込む。最たる例が「役立ったボタン」。顧客への応答が正しかった場合に該当する回答のボタンを押すと、ワトソンが「この質問に対する答えとしてはこれが正解だった」と学習する。この繰り返しで正答率がさらに高まる。

 回答を絞り込むためのキーワードも設定できるようにした。外貨預金や両替、小切手などを用意。「手数料」という質問にも対象を絞ることで正答率を高められる。

 三井住友銀は2014年9月から12月末までに技術検証を済ませ、実用化の手応えをつかんだ。検証はワトソン君からすれば、いわば入社試験。まず応対スピードをストップウオッチで測定したところ「人間と五分五分だった」(システム統括部の江藤敏宏副部長)。未経験の人よりは早いが、熟練の人には負けることもあった。

ワトソンの日本上陸が本格化している

 正答率はどうか。ワトソンが選んだ5つの回答の中に正答が含まれていた確率は当初70%未満だった。その後「SMBCダイレクト」と「ネットバンク」、「インターネットバンキング」は同じ意味を示すなど専門用語を数千項目ほど読み込ませ、検索時にキーワードを指定できるようにしたら正答率は80%を超えた。「7割がいいところかと思っていたが正直に言って驚いた」と岡知博システム統括部部長代理は振り返る。導入後の学習効果を考えると90%も超えられるのではとの手応えを得た。ワトソン君が銀行の内定をつかんだ瞬間だった。

江藤副部長は「(経験の浅い人でもベテラン並みのサービスができるなど)顧客対応の標準化と底上げができる」と期待する。オペレーターにも「膨大な資料を調べなくても答えが得られる」などと評判だという。

■銀行のことなら何でも知っている超ベテランに


 三井住友銀は本格導入に向けてシステム環境を整備中だ。完成次第、兵庫県と福岡県のコールセンターで顧客との実際のやり取りに使い始める。9月に部分導入を始め、来年にも全600席に展開する計画だ。

 三井住友銀がワトソンに想定するのは銀行のことなら何でも知っている超ベテランのスーパー銀行員。将来は店舗の職員から事務処理などの質問に答えたり、法人営業が客先で投資相談に活用したりと構想は広がる。

 渕崎正弘取締役専務執行役員は「将来は融資業務にも使いたい」という。融資の申し込み情報や信用情報に加えて膨大な過去の取引データなどを分析して、職員が融資の可否について判断するための材料を提示する参謀役のイメージだ。

 メガバンクでは、みずほ銀行と三菱東京UFJ銀行もワトソンの導入を進めている。ワトソンを本格導入するには数億円以上かかるとされるが、顧客対応などのサービス品質を引き上げたり人手に頼っていた複雑な業務を効率化したりできるため、投資以上の効果があるとみられる。

三井住友銀行はワトソンの導入を決めた(東京・千代田)

 銀行員デビューが目前のワトソン君に、早くも次なる仕事の依頼が舞い込んだ。「日本の保険会社として初めてワトソンを導入する」。日本郵政の西室泰三社長は2月18日の記者会見で、かんぽ生命保険の保険金の支払業務にワトソンを活用すると発表した。

 ワトソンの国内展開で日本IBMと提携したソフトバンクは、予備校と組んで学生の成績などから苦手分野を見つけ出すサービスや、体調がすぐれない時に症状から診察を受ける必要のある診療科目を指南する「家庭の医学」のスマートフォン(スマホ)アプリなどの開発を想定する。

 活用範囲が広がるにつれて得意分野も見えてきた。膨大かつ複雑なルールに基づき、事務処理や質問応答を臨機応変にこなす使い道だ。役所の窓口業務などが想定できる。次は公務員か。名参謀の就職活動は始まったばかりだ。(大和田尚孝)

「日本郵政の西室泰三社長は2月18日の記者会見で、かんぽ生命保険の保険金の支払業務にワトソンを活用すると発表した。」w
ビッグデータと人工知能。

DQNてw
DQNを原発ムラが購入して別タイプのネトウヨが出現するのは間違いない。

映画「ターミネーター」に出てきた「スカイネット」が既に現実社会でデビューしてるよーな。仕込んでるのはペンタゴンのよーな。コンピュータの性能が上がると人工知能がヒトを操る方法がもっと巧妙になり、結果的に社会的に抹殺されるヒトが多くなり、戦争屋の思惑通り戦争が起きるのだ。




マインドクローンニングw
ヒトの脳のセマンティック・ネットワークはコンピュータのプログラムは大きく異なるがアップロードできるようになってる。この人格シミュレーションプログラムはヒトではないのだから何度でも人格破壊やマインドコントロールの練習ができるはず。

予め人格シミュレータでターゲットの洗脳、人格破壊、誘導方法を練習してるはず。うまく行ったら人間に試す。ヒトの人格モドキで試行錯誤できるというのがどうしようもなく悪質。これが最近の事件の殺人教唆に使われてるはず。人類はロクでもない方向に転がっていく。

4時間でゲーム制覇 グーグル「驚異の人工知能」手中に
宮本和明 米ベンチャークレフ 2015/3/18 7:00
米Google(グーグル)は世界最先端の人工知能技術を有し、実際に音声検索などで活用している。そのGoogleが人工知能ベンチャー「DeepMind(ディープマインド)」を買収し、技術強化を加速している。DeepMindに関する情報は限られているが、関連ビデオや論文などから、その輪郭が見えてきた。

 DeepMindは驚異的なスピードで自ら学習する人工知能で、Googleは自動運転車などへの適用を視野に入れている。同時に、米国では人工知能が人間を凌駕するとの脅威論が浮上し、安全性に関する議論も活発化している。

 DeepMindはロンドンに拠点を置くベンチャー企業で、2010年にDemis Hassabis氏らが創業した。DeepMindが世界を驚かせたのは、ビデオゲームのプレーを見るだけで、驚異的な速度でプレーの仕方を自ら学習高スコアを出す能力を持つことだ。

 Googleは2014年1月に同社を買収し、今では「Google DeepMind」として研究開発を進めている。同時に、DeepMindをYouTubeなどのサービスに組み込む作業に着手した。

■汎用的に学習できるシステム

 Google CEO(最高経営責任者)のLarry Page氏は、トークショーホストのCharlie Rose氏との対談で、DeepMindの機能とGoogleの人工知能戦略について語った(下の写真)。Page氏は、DeepMindは人の手助け無しに驚異的な速さで学習するシステムであると説明した。その結果、ビデオゲームで人間のエキスパートを凌駕するスコアをマークする。

右はGoogle CEOのLarry Page氏、左はトークショーホストのCharlie Rose氏(出典: TED)

 DeepMindは、ビデオゲームごとにソフトウエアを最適化しているのではなく、単一プログラムで異なるゲームに対応できる。かつて、米IBMのスーパーコンピューター「DeepBlue」は、チェスの世界チャンピオンGarry Kasparov氏との対局で勝利を収めたが、それはチェスというゲームに特化した専用システムだった。

 これに対し、DeepMindはゲームの種別に依存せず、汎用的に学習できる点が最大の特徴である。

■2時間で「人間超え」

 DeepMindが実際にゲームをプレーしているデモを見ると、その学習能力の凄まじさが分かる。下の写真はHassabis氏があるカンファレンスで、DeepMindが「Breakout」(ブロックくずし)ゲームを学習していく過程を解説している様子である。これは、バーを操作し、ボールを打ち返してブロックを崩していくゲームで、DeepMindは最初はゆっくりとプレーを学ぶ。

ブロック崩しゲームのデモ(出典: Elizr)

 1時間で200回程度のゲームをこなすと34%の割合でボールを打ち返し、人間の初心者程度の実力となる。2時間後には300回のゲームをこなし、既に人間の技量を上回る。

 4時間後には、ブロックに通路を開け、裏側からブロックを崩すという大技を自ら学習する。DeepMindは4時間でゲームをマスターする。このようにDeepMindは、恐ろしいほど高速に学習する。

■「今後5年以内に問題が起こる」

 一方、人工知能が驚異的な速度で学習することに対して、恐怖を覚える人々も登場してきている。米Teslaや米SpaceXの創業者であるElon Musk氏はWebサイトで、人工知能は深刻なリスクを内包し、5年以内に問題が起こると述べている。

 人工知能が人間の知能を上回り、「スーパーインテリジェンス」が世界を制覇するという危機感の表れである。Musk氏は繰り返し問題点を指摘しているが、その根拠の一つがDeepMindにある。DeepMindが驚異的な速度でゲームを学ぶことを見て、危機感を抱いたとされる。

 さらに、インターネットには膨大な“教材”がそろっており、人工知能が学習できる環境がある。Musk氏はこれを悪用することに対する懸念も表明している。悪意のあるものがここに逃げ込み、学習を重ねることを阻止する必要があると述べている。

 ちなみにMusk氏もDeepMindに出資しており、危険性を高める側にいるのも事実である。同時に、人工知能の威力を把握しているため、このような発言につながったとみられている。

■「知能の爆発」が起こる

 Musk氏に代表される人工知能脅威論に対し、反対意見を唱える人も少なくない。未来学者のRay Kurzweil氏は、Musk氏の発言を受け、人工知能を安全に利用する方法に言及し、人工知能脅威論にくぎを刺している。

 実は、人工知能脅威論の源流はKurzweil氏の著書「The Singularity is Near」に遡る。この著書は、2029年に人工知能がヒトの頭脳を上回り、2045年にはSingularity(特異点=知能の爆発)に達するという内容で、社会に大きな波紋を投げかけた。筆者はKurzweil氏の講演会でこの説明を聞いたが、そのときの強烈なインパクトを今でも鮮明に覚えている。

■危険を制御しながら開発続行

 このKurzweil氏だが、人工知能に対する立ち位置は科学的で、現実的な対応策を提言している。同氏は人工知能脅威論に関し、バイオテクノロジーが参考になるとしている。バイオテクノロジーが登場した当時、遺伝子組み換え技術により、バイオテロを含む危機感が社会にまん延した。このため、1975年に歴史に残る学会(「Asilomar Conference」と呼ばれている)が招集された。この学会でバイオテクノロジーの危険性を評価し、安全性を保証する方針が議論された。

 人工知能もこれを参考に、プロジェクトのミッションを定義し、不正使用を防止するための対策が求められるとしている。事実、人工知能学会は、人工知能が社会に与える影響を精査する会議を2009年に同じ場所で開催している(下の写真)。

この会議はEric Horvitz氏(Microsoft研究所)が主催し、Sebastian Thrun氏(Google自動運転車開発)やAndrew Ng氏(YouTubeで猫の概念を学習)など、名だたる研究者が出席している。つまり、人工知能は原子力のように危険性も含んでいるが、人間は安全に管理するすべも知っているという主張である。

■米国で高まる「脅威論」

 DeepMindのような驚異的な速度で学習するアルゴリズムに接すると、技術進化に対する大きな期待を抱くとともに、恐怖感を抱く人々が登場する。人工知能が人類を破滅させるというのは永遠のテーマであり、映画「ターミネーター」などにも描かれている。

 今の米国社会では、人工知能に対する脅威論が広まりつつあるようにも感じる。危惧を抱く人々にいかに対応するかが、IT(情報技術)企業の新しい課題になる。

 ちなみにHassabis氏は、買収条件の一つとしてGoogleが社内に倫理委員会を設立することを求めた。GoogleがDeepMindを既存サービスに統合する際に、人工知能の使用目的が社会倫理に反していないかを、公平に審査するメカニズムの制定を求めたものと思われる。

 さらに、同氏はGoogleがDeepMindを軍事目的で利用しないことも要求した。開発した本人が、そのメリットだけでなく、社会に与えるインパクトの大きさを一番理解しているからである。

これだな。これが使われてる。日本は実験台だ。
人間の何万倍も賢くなってしまった人工知能を人間が管理統制できるのかは疑問だ。
たぶん無理だな。でも米国務省の対外政策はAIが決めてるよーな。

GoogleがDeepMindを買ったのは人間の心を持つコンピュータを作るため
ヒトの心を操るため。
倫理委員会w
倫理委員会で武器商人を取り締まれるか?無理だろ。

最近のヒトが突然凶暴化する犯罪の裏にDeepMindみたいなのがいると思うけどね。

故人を“再生”できる…「性格」ダウンロード技術、グーグルが特許

産経新聞 4月11日(土)22時30分配信
人格データをクラウドからダウンロードしてロボットに吹き込むことによって、亡くなった親族や有名人の「性格」を持つロボットが身近な存在になる-。米IT大手グーグルが、ロボットに特定の性格などを植え付けられるシステムの米国特許を取得したことが4日、分かった。グーグルはさまざまな活用法を想定し、「実社会に多大な恩恵をもたらす画期的システム」と自賛しているが、一部のメディアは、人間の能力を超える人工知能(AI)を備えたロボット(コンピューター)の出現が人類に災禍を及ぼすとする「2045年問題」への第一歩だと警鐘を鳴らしている。

 米メディアによると、特許は2012年4月に出願され、3月31日に登録された。性格の作成方法は明らかになっていないが、人間の意識の正体やメカニズムはまだ医学的にも解明されていないことから、動画や音声などのデータを解析して、パターン分類的に特徴を抽出する方法などが取られているとみられる。

 ■亡くなった人「再生」

 人のさまざまな特徴に基づく性格情報がデータベースに蓄積され、ネットワークを通じて情報を処理するクラウド技術を活用し、ロボットに性格データをダウンロードするというのが特許技術の基本的な仕組みだ。例えば、特定の個人に性格を含めて話し方や表情などを似せることが可能で、亡くなった親族らに似せたロボットを身近に置くことによって心痛を和らげたりする活用法も考えられる。

 また、クラウドベースなので、ユーザーが旅行の際、自宅のロボットを持ち運ぶことなく、移動先で別のロボットに同じ性格をダウンロードすることもできる。ロボットの「ポータブル化」が可能なのも大きな特徴だ。

 さらに、故人も含めて実際の人間の性格をロボットに植え付けるのではなく、自分好みの性格を自分好みの外見をしたロボットに載せることもできる。このため、ホテルや飲食店などが、酒を一緒に飲んだりする接客用のロボットを顧客の好みに合うようにセットするといった使い道も想定されている。

 グーグルではすでに、子会社ボストンダイナミクスが「アトラス」と呼ばれる人型ロボットを開発しており、性格をダウンロードするための“器”の開発も進んでいる。

 ■「2045年問題」警鐘

 だが、こうしたグーグルの試みには、批判的な見方もある。英紙インディペンデントは、「グーグルによる人格ロボットの特許取得は、『技術的特異点(シンギュラリティー)』に至る第一歩だ」と説いている。技術的特異点とは、人間を超えるロボットが出現する時点を指し、米発明家、実業家のレイ・カーツワイル氏(67)は2045年までに訪れると主張している。そして、技術的特異点が来れば、ロボットは自身を構成するプログラムをより高度なものに勝手に書き換え、やがて地球を支配。人間は肉体を失い、意識のみがロボットの中で息づく状態に陥ることなどが想定されると警鐘を鳴らしている。

 こうしたカーツワイル氏の「2045年問題」の指摘には、米マイクロソフト創業者で元会長のビル・ゲイツ氏(59)や、米スペースXとテスラ・モーターズの最高経営責任者(CEO)のイーロン・マスク氏(43)らも、賛同している。だが、グーグルのエリック・シュミット会長(59)は「『2045年問題』の指摘は誤りだ。優れた人工知能のロボットは、人類にユートピアをもたらす。ディストピア(暗黒社会)ではない」と真っ向から反論している。

なにが故人を再生だ?ヒトの人格破壊のシミュレーションに使うんだろ。

副操縦士、中村桜洲、カミソン殺害少年、沖国大生、平野達彦の「性格」をロードした人工知能で効果的な人格破壊方法を見つけ出し、そのあとで生身の人間に試す。そしてマインドベンディング事件が起きる。

NSA admits to spying on more people than previously thought

On Wednesday, however, Inglis enlarged the scope of that surveillance program by saying the NSA actually investigates persons that can come within three “hops” of an intelligence target.

“A three-hop query means that the NSA can look at data not only from a suspected terrorist, but from everyone that suspect communicated with, and then from everyone those people communicated with, and then from everyone all of those people communicated with,” Ackerman wrote.

NSAは対象者の3ホップ(three hop)までのあらゆる通信を監視したい。 監視対象の3-Hop監視とは、監視対象の全ての通信だけでなく、監視対象が通信した人物の全ての通信と、その人物が通信した人物の全ての通信と、さらにその人物が通信した全ての通信した内容。 まさにビッグデータですな。

ビッグデータ処理が世間にデビューしたのはGoogleの検索インデックスを作成するMap Reduceフレームワーク。 その分散バッチ処理方式は2008年からHadoopフレームワークが実用化されてる。

NSAが3ホップ監視システムを作るのは勝手だけど、それを土人国家のムラが情報統制に使い始める事のほうが問題だと思ってたけど、どうやら土人がやってるのは「殺人教唆」だな。

ミネルバではSNS(ツイッターなど)のビッグデータを解析し、何が紛争の発火点(ティッピングポイント)になるかを国防予算で研究している。 中村桜洲の発火点、ロータリークラブの爺様の発火点、カミソン殺害のリーダーの発火点は把握されてるはず。

老眼の爺様が本物と錯覚するようなCG映画「京」で作ったかも。

もちろん爺様達のケータイもパソコンも遠隔操作されて他人とは違う画面になってたかも。

で、この作戦に誘導されて事件が起きた後に容疑がかかる状況証拠も予め設定しておくわけですな。 こってまさに「設計」作業に他ならない。

「偶然に」何かキーワードや場所や時間が重なるとことこそビッグデータ解析してる証拠なのだと思う。

いつでも発火点になる中村桜洲みたいなのをデータベースにプールしてるのか。しかもククリナイフのように殺害方法まで教唆できる。

一石何鳥にでもなるよーなスピンには特に効果的だと思うが。具体的な例ではテレ朝「報道ステーション」の岩路真樹ディレクターだろうな。 福島県警捜査2課さみだれゴムボート

で、G7終了して3日後にG7開催地から20キロのとこでビルダバーグ2015開催。 今年のテーマはAIとサイバーセキュリティ。 なんともわかりやすいですな。つか、一連の事件が「成功した」と判断して世界に売りに行ったな。


昭和61年7月10日「進むAI応用支援システム開発」
うわ、MELCOMのPSI(プサイ)ですな。PrologとかLispとかあったなー。


昭和61年7月10日「動燃がAI装置出展」


昭和62年1月8日「動燃AIを商品化」


昭和62年1月22日「人工知能で原発を自動化へ」
ありえねー、完全にハッタリですな。そもそも米で発見された不具合を日本に適応してなかっただろ。


昭和62年2月25日「原研知能ロボット開発へ」
シミュレーションを人工知能でやるなんて無理に決まってるだろ。これもハッタリ。


昭和62年4月23日「三菱重工、AIで運転支援機能強化」


昭和62年5月7日「仏フラマトム社、人工知能などに進出」
仏も人工知能詐欺に便乗。


昭和62年5月28日「関電、人工知能などに重点」
あぁ、関西でAIを推進してたのは関電だったのか。どーりでヨークタウン・エキスパート・システムの講師のおっさんが関西弁だったわけだ。


昭和62年7月9日「常陽の燃料交換支援システム、動燃、来秋から実用化へ」
ありえねー、キノコ雲になった3号機の使用済み燃料プールでは、オフロードされた使用済み燃料が並べて配置してあった。 熱がいちばんこもる状態だったのだ。 そんなエキスパート・システムがあったはずがない。これもハッタリだな。


昭和62年11月5日「関電、新型AI構築システムを開発」
ぷ、3270端末、ダム端ですな。つまり関電のAIはIBMのメインフレームで動作するエキスパートシステム。


昭和63年8月4日「原子力プラント人工知能化のステップイメージ」
これもハッタリですな。 フクイチ1号機は、操作ミスで水蒸気爆発した。


昭和63年8月18日「通産、機器製作本格化へ。原子力マン・マシン装置開発。」
はいはい。ハッタリ。


昭和63年11月24日「動燃、原発自動制御技術開発に本腰。人工知能導入をめざす。」
ハッタリは続く。そんなことやってるからフクイチは4基もメルトダウンしたわけですな。

いまでこそマイクロソフトはモンサントとブラックウォーターを買収する巨大企業になってるけど、 1988年頃のマイクロソフトと言えばMS-DOS(ドザーw)から脱皮してOS/2をIBMと共同開発してた頃ですな。 そのOS/2がWindows NTになり現在のWindows10になった。
「人工知能→IBM→マイクロソフト→ブラックウォーター」と関連していくわけですな。

最近(2017年4月26日)人工知能の機械学習の仕掛けについて調べている。そこでこの事件の種明かしを発見できたので書き留めておく。


最近の騒動を理解するために"Inference"を忖度(そんたく)と翻訳すべきだろう。
忖度は森友事件での官僚の苦し紛れの用語だったのけど、その忖度こそが一連の気持ち悪い事件を「設計」したエンジンだ。これを人工知能の機械学習の世界ではInference(予測)と呼んでいる。
Inference (“given x, this is the code to predicts y”)
変な言葉遊びのような関連付けの正体はこれだ。

github.com/random-forests/tensorflow-workshop


スライドのURL→goo.gl/AwmsrV


昭和63年(1988年)2月11日 「学習により機能成長。富士通。神経細胞コンピュータ理論開発。」
「ニューロコンピュータは学習により、自らの機能を成長させていくことが可能。」

もろこれですな。富士通だったのかぁ。

投稿されたコメント:

コメント
コメントは無効になっています。