AIの恐怖
- 2018-10-26 初版
- 2023-04-10 AIは完璧ではない、AIは道具にすぎない
はじめに
- AI(Artificial Intelligence)と言われる人工知能について考えてみる。
- 過大な期待をしてもいけないが、すでに特定用途の人工知能は実用化のレベルに達している。
- いわゆる人間の代わりになる完全な人工知能は存在しない。
- ディープラーニングといえども人間による正しい教育なしに、人工知能は成長しない。
- 某大手ソフト会社が公開したおしゃべり人工知能に、いたずらで悪い言葉を教えたところ不適切な発言をするようになり、公開を中止した。
- このように、何が正しくて、何が正しくないのかを、人工知能自身で判断することはできない。冗談が通用しない。
- だから、人間が人工知能に正しい教育をしなければならない。人間なら何が正しいのかさえも自分で学び、いたずらを学習から排除できる。
- 将棋の正しいルールを教えたり、チェスのルールを教えなければならない。
- 人工知能がルールを自分で学ぶことはない。人間なら自分でルールを学ぶ。
- 人間が人間たるゆえん、人間の価値が人工知能の開発を通して見えてくる。人間に自己学習能力、自己修正能力、自己否定能力が備わっている。
- どんなに人工知能の技術が進んでも、その教育係が必要なのだ。
著作権と免責事項
- 個人利用に限定され、著作権者の許可なく商用利用できません。
- 直接間接に関わらず、使用によって生じたいかなる損害も筆者は責任を負いません。
科学技術の悪用に注意
- AI(人工知能)が仕事を奪うというがそれ以上にAIの悪用に注意しなければならない。
- あらたな技術にメリット(利用)とデメリット(悪用)があり、表裏一体である。
- 切り離すことはできない。作用があれば副作用もある。
- 科学者は常に倫理観に悩まされてきた。
- ダイナマイトの利用:鉱山の発掘、土木工事
- ダイナマイトの悪用:爆弾兵器
- 放射線の利用:原子力発電所、レントゲン
- 放射線の悪用:原子爆弾
- 携帯電話の利用:通話
- 携帯電話の悪用:オレオレ詐欺
- いずれも新たな技術(道具)が悪いのではない。
- その使用方法を誤った人間が悪い。
AIのメリットとデメリット
- AIにもメリットとデメリットがある。
- AIのメリットは省力化や最適化である。人手不足を補ったり、人件費の削減につながる。
- 一方でデメリットもある。あまり語られていないが、大きなデメリットがある。
- それがAIの悪用である。
- 例えば、AIに法律を学習させ(機械学習、ディープラーニング)、法律の抜け穴を探して悪用する。
- ※ちなみに将来、AIが発達すると裁判官、検察官や弁護士はいらなくなると言われている。
- ※人間が判断するより、AIの方がすべての法律、判例を網羅(精通)しており、最適な答えを導き出すからである。
- ※すでにニュースを要約するAIが実用化されている。AIが新聞記事を書いてしまう。判決文までAIで書けてしまうのだ。
- 人間の作った法律は完全ではなく、不備や抜け穴がある。
- だから常に改正が必要である。法律が完全なら改正する必要はない。
- 欠陥をAIで見つけて悪用する。
- 法律の欠陥であるため、「犯罪」に問うことができない。犯罪とする法律的な根拠がないのだ。
- もっとも厄介である。日本は法治国家であり、法律に違反しなければ、どうすることもできない。
- まさに法律を逆手に取った悪事である。
- あきらかに悪事であっても、法律に抵触しないため犯罪ではないのだ。
- 人間が法律を作る。AIは法律の欠陥を見つける。
- まさに「人間」対「AI」の構図なのだ。人間はAIに勝てるだろうか。法律改正が追いつくであろうか。
- すでにAIによる将棋やチェスは名人を負かし始めている。人の能力を超えようとしている。
- まだAIは万能ではないが、一部に特化すれば人間の能力を超える。
- さらにAI自身が勝手に判断し始めて悪事をしたら、人ではなくAIが首謀者であるため、もはや捕まえることさえできない。
- AI兵器が登場するかもしれない。
- 完全自動運転の自動車が登場し、運転者がいなく、車自体に事故の責任をとれるのかという問題と同じだ。
- 製造販売した人を責任者とするなら、自動車メーカーが責任者になる。誰もモノを作らなくなるだろう。
- ますます倫理観を問われる。
- 責任分界点をはっきりできないなら、超えてはいけない線かもしれない。
- 例え技術的にできるとしても超えてはならない線がある。
- AIの登場により、ますます人間を教育しなければならない。悪用しないように。
- AI側を禁止するのではなく、使用する人間側を禁止しなければならない。
- 知識や能力があっても倫理観を欠如しているなら、安易にAI開発に触れさせてはいけないかもしれない。
- 権力や能力を持った悪人は最悪である。
AIは完璧ではない、AIは道具にすぎない
AIは何もないところから創造できない
- AIに過大な期待を抱いてもいけない。
- AIは人間のように「新たな創造」はできない。
- はじめからではなく「関連した創造」はできる。
- 人間は「あらたな創造」をする。何もないところから新規に発想をする。
- 大きな違いである。
AIは学習データがすべて
- AIの精度を上げるには「学習」が必要になる。
- 「教師データ」と呼ばれる。
- なにも考えずに「ネット上にあるデータ」を学習すると間違った答えを出す。
- 「ネット上のデータ」は「正しい」ことも「間違った」ことも含まれている。
- 有名な話がある。
- 大手メーカーが開発したチャットAIははじめは調子よかったが、途中で暴言を放ってサービス停止に追い込まれた。
- 間違ったことまで学習してしまうのだ。学習の仕方を間違うととんでもないことになる。
- 「正しい」教師データを選別し、「間違った」教師データを排除しなければならない。
- AIは何もないところから創造するのではなく、「人の作ったデータ」を学習するだけなのだ。
- AIは人間なしには動かない。動けない。
- AIに戦争を止める方法を質問しても、絶対的な答えはでない。人間の知恵を超えないからだ。
- 楽して稼げる方法も同じである。
決まったルールならAIは強い
- 決まったルールに基づき学習しているだけに過ぎない。
- だからルールに間違いが混入しているとそれも学んでしまう。
- 逆にいえば間違ったルールを学習させなければよい。排除すればよい。
- 「決められたルール」=「正しいルール」
- 将棋やチェスでAIが強いのは「正しいルール」しか学んでいないからだ。間違いが含まれていない。
- 法律もルールが決まっている。
- 「正しい決まり」だけ学習すれば、正しい答えだけになる。ルール内で学習する。ルールを超えることはない。
- AIの学習能力はすさまじい。到底人間の及ばない学習能力を持つ。
- 到底人間の及ばない計算能力を持つから当たり前だ。
人間は善悪の判断をする
- ネット上のデータは正しいとは限らない。
- 人は「何が正しくて」「何が間違って」いるのか判断する。
- 人間には善悪の判断ができる。
- AIにこれができない。いずれ多少はできるようになるかもしれない。若干の補正はできるかもしれない。
- さらに人間は「ルールを変更」する。
- 今までのルールはなしで新しいルールにする。
- こうなるとAIはお手上げだ。いままで学習してきたルールが無効になるのだから、AIも無効になる。
- 新たなルールで初めから学習しなければならない。
- AIは人間が決めた「正しいルール」を学習する。しなければならない。
- 人なしにAIは成り立たない。何もないところから自分で学習することはない。
- 正しい情報と誤った情報が混在しているネット上の情報を、AIは選別して学習することはできない。自己修正能力がない。
- 間違った情報を排除する機能がAIにはない。ファクト・チェック(事実確認)が働かない。
AIはあくまでも道具(補助)に過ぎない
- AIの登場によって、一部は人間からAIにとって代わられるだろう。
- ただしすべてではない。
- 電卓が登場したから、事務経理はすべて電卓に置き換わったかといえば違う。
- コンピュータが登場してもすべてが人間の代わりにはならない。
- 人にとって面倒な部分が置き換わっただけだ。相変わらず人間が行うべき事柄がある。
- 人間である必要のない部分はAIに置き換わる。
- 人間である必要のある部分が浮き彫りになり、人間が人間である本質が残る。
- ※人間ではなくAIにできるなら、やらせてしまえばよい。洗濯を人間ではなく機械にやらせるように。
- 例えば謝罪会見はAIにできない。たとえやっても謝罪にならない。
- 感情を持つ人間は機械であるAIに謝罪されても、何の意味もない。余計感情を害するだろう。
- 謝罪は人間が行うから意味がある。
- 同様に冠婚葬祭もAIにはできない。AIは感情を扱えない。
- 裁判はAIに置き換わるだろう。法律だけを学習するから、間違うことはない。
- たとえ人間の感覚的に間違った結果が導かれても、それは現在の法律の判断である。AIの間違いではない。
- 間違っているのは法律であって、法律を修正しなければならない。
- 裁判はAIの導入によって効率よく多くを処理できるようになるだろう。人員削減にもなる。
- もちろん、AIが書いた判決文が正しいかの確認は最終的に裁判官がする。
- AIに入力した情報(証拠)が間違っていたら、AIの判決文も間違うからだ。
- AIを道具として活用する。
AI開発を禁止しても意味ない
- 一度、手に入れてしまった技術は排除できない。
- なかったことにはできない。
- うまく利用していくしかないのだ。悪用してはいけない。
- 技術が悪いのではない。使用する人間に問題がある。
- 人間側に悪用を禁止することだ。
特定の職業は消える
- 特定の職業は人工知能の発達に伴い、消えると言われている。
- これは今に始まった話ではない。時代とともに不要な職業は消え、新たな職業が必要とされる。
- 江戸時代の教育といえば「読み、書き、そろばん」といわれてきた。
- 確かに、当時はこれだけ学べば、職に就くことができた。
- 昔は売買するときにお金の計算が必要だったのでそろばんが不可欠であった。
- ところが、電卓、レジ、コンピュータの登場によって、そろばんは不要になってしまった。
- 昔の人にしてみれば、何をバカなこといっているんだ、そんなわけないだろうというだろう。
- よもやそろばんの必要性がなくなるなんて考えもしなかっただろう。
- 現代においてそろばんを学んだところで、1秒間に何万回も計算するコンピュータに速さと正確性の面で勝てない。
- 代わりに、コンピュータのプログラミング技術を必要とされる。必要とされる能力がそろばん能力からプログラミング能力に変わった。
- 同様に人工知能によって将来不要になる職業がでてくる。
- 例えば「英語」だ。通訳や翻訳、英語学校なんて不要になってしまう。
- すでに、音声認識して多言語への自動通訳、自動翻訳が可能になってしまった。
- それもほぼ実用レベルに達しており、通訳機器の販売さえ始まっている。ポケトークで調べてみるとよい。
- となると、今更「英語」を勉強しても意味がない。
- 電卓の登場により、そろばんが不要になってしまったように、翻訳機器の登場で英語の勉強そのものが不要になってしまう。
- 通訳機器、翻訳機器が一般的なものになってしまえば、英語の勉強そのものが不要になってしまう。
- 当然、英語学校なんて不要になる。常識が変わる。
- いまさら、英検、TOEICやTOEFLで高得点をとったところで、将来、意味がない。そういう時代は終わった。
- そろばんの授業が意味がなくなったように英語授業の意味がなくなる。
- あなたよりも音声認識による自動翻訳機のほうが早くて正確な翻訳する時代がくるからだ。
- そんなことよりも、人間が人間たる、もっと本質的な学習に時間を割くべきだ。
- ※筆者は英語に恨みを持っているわけではない。職業柄英語に接する機会が多い。最低限の英語力はある。
- ※この能力が不要になる時代が来るだろう。流行りの言葉を使えば、英語力はオワコン(終わったコンテンツ=時代遅れ)である。
- ※少なくとも全員が英語を勉強する必要はない。必要な人、得意な人だけが勉強すればよい。選択制にすればよい。
- 知識力(知っているかいないか)を問う時代も終わった。ネットを検索すれば答えがでてくる。
- 昔は本を読んだり、知っている人に聞かなければならなかった。
- 単なる知識力ではなく、理解力を問われる。発想力、適応力、応用力を問われる時代である。
(今のところ)AIにプログラム開発はできない
- 人間はプログラミングしてAIを開発した。AIを生み出した。
- AIはAIを開発できない。
- 自分で自分を生み出すことはできない。
- 仮にやっても人間のわからない言語を生み出し、人間の役に立たない。意味がない。
- 人間の作ったルールを破ったり、人間による教育(指示)を無視したら、人間にとってAIは害になる。
- AIが人間に反抗する。
- だからAIにAIを超える能力を持たせてはならない。AIが暴走する。
- あくまでも主が人間で、従がAIである関係を壊してはならない。
- 主従関係を誤ってはいけない。
- 主従関係を誤ったとき、AIの電源は切られる。
©2018-2023 All rights reserved by Y.Onodera.