スキップしてメイン コンテンツに移動

挑戦権をみずから放棄した社会

御無沙汰しております。
お元気でしたか?
こちらは本業の案件が二転三転しており、なかなかやるせない日々です。

そんな日々の中、書物を紐解いています。
先程読み終えたのが、あの新井 紀子 先生の『AI vs. 教科書が読めない子供たち』という警醒の書です。
たいへん愉しく読み進めたのですが、同時に、自分は文章を「読解」できているのか不安になりましたね。『帽子をかぶった女の子がいる』の例題で誤答してしまったためです。命題として考えれば対偶を取ったり、ベン図(集合論)を書けば理解できそうなことをサボって間違えてしまいました。

わたしは近年、教育分野に関心を持って活動してきたのですが、その過程での流行り廃りで、「リメディアル教育」だの「早期英語教育」だの、「アクティヴ・ラーニング」「リベラル・アーツ」「プログラミング教育」といったキャッチ・フレーズが巷間を賑わせてきたのを眺めてきました。

ですが、そういったキャッチ・フレーズたちは表面を撫でるようなものでしかなく、結局(新井先生の言うとおり)『文章の読解力こそが決め手』であることに得心しました。


まあ、自分も御多分にもれず AI 関連技術(GAN とか RNN とか)は独学しています。
めざましい躍進が各所から伝えられているのは、みなさんも御存知の通りです。
ですが、そういった華々しいところからは見えない『本質的困難さ』、これを直視しなければなりません。

自分は高校の頃、神林 長平の『敵は海賊』シリーズなど SF を愛読して、人工知能研究者を目指していたのですが大学入学直後、『人工知能辞典』でドレイファスの否定的見解にふれ、そこから迷走を始めました。'92 年の話です。当時はマシン・パワーも現代に比べ格段に非力で、取り扱い可能データ量も少なく、今日のように機械学習(深層学習)が力を発揮することなどありえませんでした。

ですから、いまの AI 関連トピックを傍らから眺めていると、隔世の感が強いのです。
それで多少は手遊びで、それらの技術を独学しているのですが、どうも、わたしにはここまでの blank を catch up できるだけの才能はないようなのです。


ですが、個人的にまだまだ生き残らなければならない理由があるので、ここでカンタンに諦める訳にも行きません。そのときの生存戦略として、どこを狙うか、非常に考えさせられたのが本書でした。だって、大雑把な謂い方をすれば、かなりの割合で、人間は文章をまともに読解できないのですよ? 本書中では明言されていませんでしたが「国際比較で上位にある日本においてすら」「全世代的に」「3 人に 1 人から 2 人に 1 人ぐらいの人々が」文章を理解するのに困難を抱えているのです。ダメですよ、そこ、自分の上司や先輩で思い当たる顔を浮かべては?


自分には禅の先輩がいます。
まあ一応、往事の此の国のトップ校を卒業したぐらいの人です。
社会的にも、それなりの活躍をしてきたキャリアがあります。
それはともかく、悟りの目が深い。

その先輩が言うには『勉強とは読み書きソロバンが重要。それだけやればいい』のだそうです。それは極論ではなく、より根源的な学習能力とは、という論点について彼が率直に述べた見解なのです。

今回、わたしは『文章の読解力こそが核心』という問題について処方箋を持っていません。ただ、すこしでも生き残れる「仲間」を増やすために、寺子屋めいた活動に傾注していこう、と決意しました。


余談ですが、はっきりいって悲観的な未来予測をしています。
すくなくとも日本は、東京五輪開催後に(近年、多くの開催国が陥ったように)長期不況に陥り、かなり困難な時代を迎える中で、激動する国際環境への適応を迫られるでしょう。人口動態も当面は回復しようがありません。そして、シンギュラリティーは来なくとも、AI 関連技術に見られるようなシステム化は全域を覆うようになり、大きな淘汰圧をこの社会の成員たちに掛けていくことでしょう。相当ストレスフルな社会になることは間違いありません。

ここで、あきらめても良いんです。
わたしはもう、イイ歳ですから。

ですが「これから」を生きる若者たち、こどもたちに、それは酷です。
ですから、わたしなりに教えられることは教えてから立ち去りたい。
そう思って、地道な活動を続けよう、と再決心した次第です。

コメント

このブログの人気の投稿

複数の時系列データの因果関係が分かる(?)

今日和。 さて、独学ブログとして本来の路線へ。 本日は、 沖本 竜義 著『経済・ファイナンスデータの計量時系列分析 』から。 何故ならば、個人的に「時系列データ」の分析に多くの興味を持っているからです。 そこで本業が手薄な期間をつかって勉強しています。 その最中で、おもしろいモデル化手法を知りました。 “VAR モデル” のことです。 この界隈では有名な TJO 氏が解説しているので、その投稿記事へのリンクを貼ります。 本投稿は、多くを以下の 2 リンクを中心とした TJO 氏記事に参考にしてます。 https://tjo.hatenablog.com/entry/2013/07/25/194546  https://tjo.hatenablog.com/entry/2013/07/30/191853 沖本本、第 4 章冒頭から多少強調のために改変しつつ引用します。 “ベクトル自己回帰(VAR)モデル は、 自己回帰モデルを多変量に拡張したもの である。VAR モデルを用いる目的は主に 2 つで 1 つは 複数の変数を用いて予測精度の向上を図る ことであり、 もう 1 つは 変数間の動学的関係の分析を行う ことである。 特に、変数間の動学的関係の分析に関して、VAR モデルは グレンジャー因果性   インパルス応答関数 分散分解 という強力なツールを提供でき、推定も容易であるので、80 年代以降、マクロ経済学やファイナンスの分野で頻繁に利用されるようになった。本章では、 多変量のデータの動学的関係を分析する上で非常に重要なモデル である VAR モデルについて述べる。 ” このなかで、わたしが注目したのは 『インパルス応答関数』 です。 https://ja.wikipedia.org/wiki/インパルス応答 “インパルス応答(英語: impulse response)とは、インパルスと呼ばれる非常に短い信号を入力したときのシステムの出力である。インパルス反応とも。インパルスとは、時間的幅が無限小で高さが無限大のパルスである。実際のシステムではこのような信号は生成できないが、理想化としては有益な概念である。” 何故、これが有益かというと、以下の具体例から御理解いただ...

霞ヶ関文学の劣化ぶりを垣間見る——『一事が万事?』——

おはようございます。 ちょっと古い(半年前くらいの)トピックなんですが、看過できないものを見かけました。そこで所感をまとめておきます。 【経済産業省】:DXレポート ~ITシステム「2025年の崖」克服とDXの本格的な展開~ https://www.meti.go.jp/shingikai/mono_info_service/digital_transformation/20180907_report.html どうも、あまりにも問題が多すぎるレポートです。 ですから『本文』.PDF の 27 ページに話を絞って、分析します。 https://www.meti.go.jp/shingikai/mono_info_service/digital_transformation/pdf/20180907_03.pdf 『(注)経済損失の算出根拠』からの文章を、じっくりとお読みください。 私見では、まことしやかに数字を列挙しながら「試算」を進めている、この注釈。 論理的な妥当性には、かなり乏しいです。 この「試算」は、3 つの統計調査の引用でできあがっています。 情報処理推進機構(ベースは他社による調査) 日経 BP 社「日経コンピュータ 2017.8.3」の記事 日本情報システム・ユーザー協会「企業 IT 動向調査報告書 2016」 ですが、それらを並べて試算している、そのやり方が微妙にオカシイのです。 まず、これは前提として(仕方なく、)仮に許しましょう。 1. > データ損失やシステムダウン等の システム障害により生じた 2014 年 1 年間の損失額は国内全体で約 4.96 兆円。 つまり、既に 5 年前の段階で年間あたり約 5 兆円の損失を(レガシー系に代表される基幹系システムは)計上している訳です。  次に、ここが要注意です。 2. > (1)セキュリティ 29.1%、 > (2)ソフトの不具合 23.1%、 > (3)性能・容量不足7.7%、 > (4)人的ミス 18.8%、 > (5)ハードの故障・不慮の事故 19.7%。 > レガシーシステムに起因して起こる可能性があるのは、仮に、このうち (1)・(2)・(3)・(...

あたらしい道具

今晩和。 またまた御無沙汰しております。 きょうは、大変おもしろい『道具』に出逢ったので、その御紹介を。 その道具とは “TensorBoard” です。 詳しくは、以下のリンクのページを熟読なさってください。 https://yag-ays.github.io/project/embedding-visualization/ この分析ツールを使ってみるために、国連の『世界人権宣言』を mecab で分かち書きにしてから word2vec に通してみました。 わたしは門外漢なので、あまりよく分かっていませんが、要はこれ、主成分分析(PCA)ですね。いや、オプションで t-SNE という「学習」にも切り替えられますが。 なんで、こんなツールを探し出して使ってみたかというと、実は仕事上の必要から、大量の文献の調査をしているのです。ところがアタマがパンクしそうになるくらい大量で困っていたのでした。そこで、要領よく文献を精査するために、キーワード検索を多用しようか、と云う段階になりました。 そうすると、とあるキーワードに「距離的に近い」別のキーワード群を知りたいと思ったのです。そこでネットを散策していたら上記のページに行き当たり。 上記の例では、対象が『世界人権宣言』ですので、まあ、ドキュメントの量としても短いし、出てくる単語の語彙も限られていて、いわゆる予想どおりの結果になっております。 ですが、これを不特定多数のドキュメント群に対して施したときに、どうなるか? まだ、わたしには分かりません。 ですが、確かな手応えを感じています。 こんなツールが、ちょっと環境を整えるだけで使える時代。 ああ、ほんとうに良くなりました。 感謝深甚です。 追記: 手持ちの参考文献をすべて .txt にして、TensorBoard で可視化してみました。 これはスゴい! 便利です。