「手の込んだ乱数発生器」インチキ AI 企業に騙されないために

Posted on 2019-12-20(金) in Machine Learning

プリンストン大学准教授の Arvind Narayanan 氏による「How to recognize AI snake oil(AI のインチキの見分け方)」と題された講演がありましたので紹介します。

彼の主張は「現在、AI として売られているものの多くがインチキだ」というものです。

私自身も、スタートアップ・研究所を始め数多くのクライアントさんの「AI プロジェクト」に関わっていますが、近年のニューラル・ネットワークに代表されるAI分野の進歩に日々驚きながらも、「流行っているから」「投資を受けやすいから」という表面的な理由で「AI」という言葉を気軽に使う創業者・プロダクトの代表者などを数多く見てきました。

こういった「インチキ」は、専門家が簡単な質問をすればすぐに見破ることができるのですが、専門的な知識が無かったり、見た目の良いマーケティングやピッチ資料に紛れ込んでいたりすると、どうしても信じてしまいがちですね。

以下、講演の内容を簡単に紹介します。

ちなみに、講演タイトルにもある "snake oil" とは、「効果が無いインチキ商品、それを偽ってマーケティングすること」を指す言葉で、19世紀にアメリカやヨーロッパで …


Continue reading

あなたはなぜ英語ができないのか — プロジェクトベース英語学習法のススメ

Posted on 2019-04-12(金) in English Learning

英語学習

目次

突然ですが、皆さん、ピアノは上手ですか?「弾けない」と答えた方、でも、義務教育(小学や中学)で、「音楽」の時間がありましたよね。そこで、何らかの鍵盤楽器を練習した方も多いと思います。なぜ上手ではないんでしょう。

サッカー、ならどうでしょう。水泳 …


Continue reading

グーグルマップの城壁—データからデータを作り出すAI戦略

Posted on 2019-03-22(金) in Machine Learning

グーグルマップが、ゼンリンから自社独自のデータに切り替えたことによるクオリティの低下が話題になっていますが、グーグルマップが何年も前から、衛星写真やストリートビューなどのデータから、機械学習の手法を駆使して地図データをすごい勢いで充実させていることはあまり知られていません。

Google や Apple の地図サービスなどの事情に詳しい Justin O'Beirne 氏による「グーグルマップの城壁」と題されたこの記事では、Google がいかに画像認識と機械学習の技術を駆使し、「データからデータを作り出す」ことに成功し、自社サービスに他社が追いつけないような「城壁」を築くのに成功したか、ということが書かれています。

個人的な話ですが、最近、機械学習エンジニアとして独立してから、主にスタートアップ等を対象に、人工知能・機械学習系のプロジェクト戦略についてコンサルティングをしています。特に、機械学習やデータが鍵となるサービスでは、いかにデータを収集し、機械学習の技術を活用しながら新たなデータを生み出したり、競合が追いつけない勢いでプロダクトを改善するか、ということが非常に大切になってきます。その戦略を考える上でも、非常に示唆に富む記事になっています。

本記事の内容については、オリジナルの記事をご参照ください。(2019/3/24追記:本記事に含まれていたまとめは、著作権上の問題から削除しました。)

なお、グーグルマップに関する他の記事を見ていると、例えば Android …


Continue reading

教科書より分かりやすい!数学を動画で学ぶ英語YouTubeチャネル 3Blue1Brown がオススメ

Posted on 2019-01-24(木) in Math

「どの教科書より圧倒的に分かりやすい」

「なんでもっと早くこれを知らなかったのか」

「全ての数学のコースで必修にすべき!」

と、絶賛の声でコメント欄が溢れる、人気 YouTube チャンネル、「3Blue1Brown」をご存知でしょうか?

スタンフォード大数学科卒の Grant Sanderson 氏によって作成・公開されている、数学の基礎的な概念をたいへん分かりやすいビジュアルと共に解説する動画シリーズです。

全ての動画が、数学の概念を「直感的に理解」することを目標に作られているので、数学が苦手な人はもちろん、概念や定理などを一通り学んだことがある人が見ても、「こういう事だったのか」と目からウロコなのは間違いありません。

例えば、「線形代数の基本」と題された動画シリーズの初回「ベクトルとは何か」では、ベクトルという概念がこのように紹介されています:

他にも「線形変換と行列」と題されたこの動画では、行列の掛け算はそもそも何をするものなのか、なぜその形になるのかを、直感的に解説しています:

「線形代数の基本」シリーズの全ての動画は、こちらから全て見ることができます。また、同様に「微積分学の基礎」シリーズもあります。

動画には、全て英語字幕が付いているので(残念ながら日本語字幕はありませんが)、聞き取れないところも字幕で確認しながら学習を進めることができます。

個人的にオススメなのが …


Continue reading

人工知能の第一人者 Andrew Ng 氏がアドバイスする機械学習キャリアの築き方

Posted on 2018-12-18(火) in Machine Learning

現在は、AI Fund の立ち上げ、Landing.ai の CEO 、そして Stanford の教授として活躍する人工知能の第一人者 Andrew Ng 氏。ACM (国際計算機学会) の生涯学習のウェビナーにて「機械学習キャリアの築き方」という内容で話をした動画が、とても良いアドバイスが満載でしたので、ここでまとめと共に紹介します。

Andrew Ng 氏

Andrew Ng on Building a Career in Machine Learning

  • AI は技術的ブレイクスルー
    • 多くの機会
    • 多くのキャリア機会
  • 素晴らしいキャリアを築いている人は何が違うのか
  • どうやってインパクトのある、人の役に立つ仕事ができるか
  • 技術ポートフォリオ
    • 分野 x 知識の深さ
    • 広さと深さ、両方を持つ
  • 広さ
    • 広さを身につけるには、コースを取る (大学、MOOC)+論文を読む
    • コースとして整備されていない知識 …

Continue reading

モチベーションがありすぎるあなたへ

Posted on 2018-11-11(日) in Productivity

モチベーションはあって、良いアイデアがすぐ浮かび色々なことに挑戦するのだが、すぐに他のことに興味が移ったりして何一つとして成し遂げられない・・・。自分も含め、こんな症状で困っている方も多いのではないでしょうか。少し前ですが、ブロガーの Scott Young 氏が記事を書いていたので、抄訳とともに紹介します。


元記事: モチベーションがありすぎるあなたへ

自己啓発の分野では、多くの人が、モチベーションが足らなくて困っている、という見方が主流だ。ただ、自分が見る限り、そのまったく逆の症状、つまり、モチベーションがありすぎて困っているという人が少なからず居るようだ。つまり、やりたいことが多すぎて、一つのプロジェクトをやり遂げることが困難であると感じる人たちである。

このような人たちは、

  1. アイデア、シナリオ、目標を考えるモチベーションが過剰にあり、
  2. このアイデアのために必要なことを実行するモチベーションが普通、もしくは少ない

という特徴を持つ。このような人に「モチベーションの上がる本」などを読ませても、全く効果がないどころか、逆効果になってしまう。

自分がモチベーション過剰か知る方法

自分がモチベーション過剰かどうか、どうやったら分かるだろうか?

私もそのような性格を持つ一人なので、同じ性格を持つ人を見ると割と簡単に分かる。新しいプロジェクトや、旅行先、ライフハックなど、新しいことに対してすぐに興味を持つが、深くコミットせずに新しいプロジェクトにすぐに飛び移るので、ひどい結果しか生まれないのだ。

あたながこのような性格の持ち主か知るためには …


Continue reading

強化学習入門 - Google DeepMind の David Silver 氏による強化学習コース

Posted on 2018-09-01(土) in Reinforcement Learning

「無料でアクセスできる最高の強化学習のコース」と名高い、Google DeepMind / University College London の David Silver 氏による強化学習のコース。こちらのページから、全ての講義スライドと講義ビデオが見られる

講義1: 強化学習入門

  • 教科書

    • An Introduction to Reinforcement Learning
      • 直感的, このコースで参照
    • Algorithms for Reinforcement Learning
      • 理論, 厳密
  • 強化学習とは

    • 様々な分野と関係
    • 工学、機械学習、神経科学(脳の報酬システムと関係)
    • 機械学習の3つの分類
      • 教師あり学習、教師なし学習、強化学習
  • 他の機械学習アルゴリズムとの違い

    • 教師の代わりに、報酬信号しかない
    • 報酬がすぐに得られるとは限らない
    • 時間の概念が重要。iid (独立同分布)データではない
    • エージェントが環境に影響を及ぼす→データも変わる
  • 強化学習の例 …


Continue reading

ベストセラー「睡眠こそ最強の解決策である」著者マシュー・ウォーカー氏による Google 最新講演

Posted on 2018-07-27(金) in Productivity

「自分は睡眠が少なくても大丈夫」と思っている人は、「ぜんぜん酔ってないから」と言いながら車を運転して帰ろうとする酔っぱらいぐらい危険である。

マシュー・ウォーカー氏講演

アメリカ・イギリスでベストセラーとなった「睡眠こそ最強の解決策である」の著者であり、睡眠研究の世界的第一人者であるマシュー・ウォーカー氏の主張は一貫しています。本書は、日本でも少し話題になったので、聞いたことのある方も少なからず居るのではないでしょうか。私も書籍を英語で全て読みましたが、評判どおり「これまでの考え方と人生を根本的に変えてしまうスゴ本」で、事あるごとに人にオススメしています。

Center for Human Sleep Science (人類睡眠科学センター)創始者・所長でもある著者のマシュー・ウォーカー氏が、 Google で講演したビデオがありましたので、まとめてみました。書籍を全て読むのは時間がかかりますが、本トークであれば要点が30分程度で把握できるので、時間の無い方、要点だけをざっと掴みたい方にオススメです。

少し難し目の医学系・生物系の用語も出てきますが、ウォーカー氏の話し方もゆっくりで、字幕もついているので、割と簡単に理解できるでしょう。

講演ビデオはこちら

  • 生殖器

    • 5時間しか寝ない男性は、もっと寝る男性に比べて睾丸が小さい
    • 女性の生殖能力についても同じ
  • 記憶

    • 学習した後で、記憶に「保存」するには、睡眠が必要 …

Continue reading

テスラ自動車 人工知能部門長のアンドレイ・カルパシー氏による「ソフトウェア 2.0 スタックの開発」最新講演

Posted on 2018-06-13(水) in Deep Learning

テスラ自動車の人工知能部門長 (director) であるアンドレイ・カルパシー (Andrej Karpathy) 氏。 少し前に、ソフトウェア 2.0という概念を提唱したことで少し話題になったことを 覚えてらっしゃる方も居るかもしれません。ソフトウェア 2.0 とは、ニューラル・ネットワークに代表されるように、 枠組みと大量のデータを人間が与えるだけで問題を解けるように内部構造が最適化されるフレームワークのことを指します。

この「ソフトウェア 2.0」のおかげで、これまで「人間がどうやってプログラムするか分からかった」ような問題、例えば、 画像認識や音声認識・音声合成、機械翻訳やゲーム(囲碁)などで、近年、目覚ましい性能の向上が達成されたことは、この分野の進歩を追っている方なら 既にご存知ではないでしょうか。

本記事では、カルパシー氏の最新の講演「ソフトウェア 2.0 スタックの開発」のまとめおよび用語集を紹介します。 話が非常に面白く、また、機械学習を現実の問題に適用している方なら「あるある」とうなずける内容ばかりですので …


Continue reading

Ilya Sutskever 氏によるメタ学習と自己学習の最前線 (MIT 講義まとめ)

Posted on 2018-05-25(金) in Deep Learning

OpenAI の共同創立者兼研究ディレクターである Ilya Sutskever 氏。過去 5 年以内の論文の総引用数が 46,000 を超えるという、名実共に現在の人工知能・深層学習分野の第一人者でしょう。

MIT の「汎用人工知能(Artificial General Intelligence)」という講義シリーズの中でのSutskever 氏の講演が上がっていましたので、今回は抄訳とともにご紹介します。 メタ学習や自己学習など、最先端の話題もさることながら、進化論への言及など、非常に示唆深い、分かりやすい講演でおすすめです。

講演ビデオはこちら

はじめに

  • そもそも深層学習はなぜうまくいくか
    • 定理:与えられたデータに対して、そのデータを生成できる最小のプログラムが、最も良い予測ができる
    • ただし、データが与えられたときに、そのデータを生成できる最小のプログラムを見つけることは困難である
    • 最小のプログラムの代わりに、最小の「回路」なら、逆伝播を使って見つけることができる
    • AI の基礎となる事実
    • ニューラルネットの訓練 → ニューラル「式」を解いている
    • N個の Nビットの数字を …

Continue reading