時事通信の2019年10月19日付けの「米ボーイング操縦士、欠陥認識か=墜落機の失速防止装置」によると、「ロイター通信は18日、昨年から今年にかけて墜落事故が相次いだ米航空機大手ボーイングの新型旅客機「737MAX」をめぐり、同社のテストパイロットが2016年に欠陥を認識していた疑いがあると報じた。同僚パイロットと当時交わしたテキストメッセージで明らかになったという。...ロイターによると、テストパイロットは同僚へのメッセージで、米連邦航空局(FAA)の認証試験中だったMAX機の失速防止装置について「(シミュレーターの中で)暴れ回っている」「実にひどい」などと指摘。意図せずに「規制当局を欺いた」といった文言もあったという」
被害者家族にとっては、理不尽で、衝撃・苦痛・悲痛極まりな出来事でしたが、メーカーにとってはただ業績への打撃にしかありません。
それより、その裏に隠されているのは、人間の「ハイテック」と称される技術への過度な依存と、過大の評価です。
自分の生活を楽にできそうなものへの依存は人間の怠惰によるものです。ほかの文化や宗教ではどう見られるかはともかく、キリスト教における七つの大罪のひとつでもあります。
物事を過大に評価するのは、メーカーをはじめとする諸組織の狡猾です。平たく言えば、詐欺です。2019年の流行「技術」でいえば、クラウド、IoT、AI、自動運転等々、すべてその以前にあるものを新しい形で提起し、過大に評価されるものです。
過大評価の危険性は、その裏にある危険性・欠陥の過小評価です。
737MAXはその一例に過ぎません。同機にある「失速防止装置」はまさに「AI」の応用の一例です。「I」は「Intelligence」で、「知能,理解力」と言う意味です。
「知能」を持っている装置だから、安全で安心できるに決まっていると誰でも勘違いします。しかし、少なく今の時代のすべての「AI」は「条件付」の意思決定システムに過ぎません。その条件は少しでも崩れると、とんでもない意思決定になる可能性はいくらでもあります。
それを、極力口にしないで、いいところばかり強調して、堂々と商品化するのは、メーカーです。それは、過大評価の真相です。
消費者や利用者はそれ以上に賢くならないといけない時代です。
形や形態は違うが、朝日新聞の「突然走る・飛び降り…インフル異常行動、昨季72件確認」で言及した厚生労働省の調査結果がります。インフルエンザ向けのゾフルーザ、タミフル、イナビル、リレンザの副作用と思われる現象が研究・調査されました。本来は休養すれば直るのはほとんどです。インフルに掛かっても、無理して通勤・通学を続けたいから、薬に頼りきるのは現状です。しかし、すべての薬は、最終的に(実質)人間による大規模の人体実験でその副作用が明確化するだけです。