何年か前に、「Learning Analytics」 ということが流行りました。
一部のLMS業者は専用のソフトウェアを売り出したりしましたね。
ちょうど、ロジカルシンキングなんていうのが企業の中でどうにか取り入れだされた頃だったと記憶しています。
それと同時期に、データサイエンティストと呼ばれる職種で求人が多くありました。
そう、「統計」です!
今の世の中、ダニエル・カーネマンではないですが、システム1なんかに頼るのはあまりにも愚かで、基本はシステム2、熟考や統計的なデータによる判断が重視されます。
当時は、「Learning Analytics」は、「AI」の一部のように宣伝されていました。お笑い種ですね? 単なる「統計」なのに、、、、
「Learning Analytics」は、学習データを統計の様々な手法を使って、どこが弱くて、その要因はどこそこにあるとかいったことをグラフや図表として示し、教育のターゲットを絞ったり、目標を定めたりすることが目的とされました。
その部分だけ見れば、とても素晴らしい考えに思えます。実際のところ、こういったデータドリブンな世界は21世紀に必須の思考であるといえます。
しかし、「Learning Analytics」は完全に忘れ去られました!
なぜか?
そうです、全く的外れな結果を出し、成果・効果が出なかったのです!
この結果は、当然です。大元の学習データ自体が出鱈目だったからです。
「ゴミの山から宝を探す」ような楽天的統計学の方もいるかもしれませんが、「ゴミの山にはゴミしかない」のがほとんどのケースです。
垂れ流しのe-Learningで、真正な学習目標も作らず、いい加減なテストのデータを入力にすれば、たとえ「本物のAI」があったとしても、まともなアウトプットなど得られるはずがありませんよね?
だから、私は、ちゃんとした「構造」をつくろう! って様々な場所で言ってきましたが、なかなか響かなかったようです。
上記のようなフローでないと、Learning Analytics が生きる場所はないと思うのです。
(そして、Learning Analytics は消えていきました、、、、)
AI,DXのところでも記しましたが、とにかく「ちゃんとした学習データ」をとることを考えようよ! ということです。
因みに、こういった考えを持つようになったきっかけを与えてくれた本を紹介して終わります。 この本はほんと参考になりました!