「1日ひとつだけ、強くなる。」読んだった
読んだった。
現在の上司や最近読んだマインドセットという本の影響からか、
淡々と一歩ずつ物事を進めることに充実を感じ始めている。
同時に、かなり精神的にもポジティブになってきた。
そういった心境の変化の中で、タイトルに惹かれたのが梅原さんの本。
梅原さんは、日本初のプロゲーマーであり、
長年にわたりトッププレイヤーとして活躍されている方。
私自身、格闘ゲームはやらないが、彼の対戦動画は観たりしたことがある。
内容としては、現在の自分の充実感をなぞらえるようなものであった。
また、別の視点を与えてくれた点もあった。
「力を付けることが出来れば、自分が楽しいし、いい結果も生まれやすい。だから、成長は義務などではなく、楽しく生きて、この時代にコースアウトしないためのツールと考えればいいのではないか」
今のポジティブなサイクルが回っているのもこの辺があるのかも。
ツールとして考えるは合理的な発想だ。
「小さな成果は、誰も評価してくれない。だから、自分のやっていることは誰よりも自分が評価しなくてはいけない」
「目的は成長のループを安定して継続することにある。低いハードルはそのための手段」
私の上司は、小さなゴールを設定すること、その目的に対する障害を排除する名人だと思っている。そして、それは結果として、物事が進む。
一足飛びに結果を追い求めても、中々難しい。
淡々と、一歩ずつ。
シン・ニホン読んだった
すべての産業がデータ×AI化する。
任意の産業でデータ×AI化が起こると、
サービスの価値が上がる。
よりユーザが集まり、利用が増えデータが増える
アルゴリズムの性能が上がり、打ち手の質が上がる。
つまり、先行者利益が効きやすい構造である。
「さっさとどんな分野でも始めたほうがいい」
データ×AI化する世界に完成は無く、常にその商品やサービスは学習し、
変化し続ける。収益機会が2倍になる。
「未来=夢×技術×デザイン」
妄想し、カタチにすることが富に直結する時代。
日本の強みは、3歳児くらいから、妄想力を半ば英才教育している点である。
境界・応用領域にこそ人材が必要とすら言える。
つまり、産業化するためには、AIとドメイン知識を繋ぐ必要があり、
データの専門家だけでは駄目ということだね。
「老人を生かさんがために、若者を犠牲にするような国に未来はない」
コロナもそんな感じだね・・・
「一日生きることは、一歩進むことでありたい」 湯川秀樹
学び。
まず手を動かせ。
あとは、ドメイン知識を持つ人の関わりを積極的持つことか。
サピエンス全史読んだった
読みました。
以下、内容。
動物界では取るに足らない動物、更には同じホモ属でも秀でた種ではなかったサピエンスが何故動物界の頂点に立ったか。
それは約7万年前の認知革命を経て、「虚構を語れる想像力」を身につけたからである。
客観的な現実の世界だけでなく、大勢の人が共有する「共同主観的」な創造の世界に暮らせるようになった。
伝説や神話、神々、宗教を生み出し、それを共有する者なら誰もが柔軟に協働する能力を獲得した。つまり、数の暴力は強いということか。
虚構を作り変えればすぐに行動パターンや社会構造を変えられるので、サピエンスは遺伝子や進化の束縛を脱し、変化を加速させ、他の生物を凌いだ。
現代における、企業や法、人権や平等、自由、いずれも虚構である。
次の農業革命においては、単位面積当たりに暮らせる人の数が爆発的に増加。
その動きを強める原動力は、貨幣、帝国、宗教である。
貨幣は、最も普遍的で、効率的な相互信頼の制度と言える。
科学革命。これは自らの無知を認めたことから始まる。
その前までの文化は進歩というものを信じていなかったが、科学は自らの無知を前提に、貪欲に知識を求めていった。
科学の探求には政治と経済の後押しが必要であり、この500年、これらは正のフィードバックを回し続けた。
私たちが直面している真の疑問は、「何になりたいのか」ではなく、「何を望みたいのか」ではないか。
引っかかったところ。
『文化は不自然なことだけを禁じると主張する傾向にある。だが、生物学の視点に立つと、不自然なものなどない。』
自然という言葉を良く耳にするし、自分も無意識に使っていたが、確かにきちんと考えてみると、違和感のある使い方をされているケースもあるな。
『レベル7以上の幸福感を味わうことができない。その人の脳はそもそも、何が起こっても心が浮き立つようにはできていないのだ。』
これもハッとする一文。人間は同じように感じる生物であると割と考えがち。下品な話だが、落ち込んでいる男性に「おっぱい揉む?」と言えば良いみたいなアドバイスがtwitterで回っていることもあったが、これも大した解決には繋がらない可能性もあるなとか笑
学び。
サピエンス空前の能力は、虚構を語れる想像力。
これ無しには協力体制は作れないということだ。
つまり、多くの人が協力するプロジェクトにおいて重要なことは、この虚構、つまりVisionを共有し、皆が信じられる状態を作ることが重要であると示唆している。
Deep One-Class Classification
http://proceedings.mlr.press/v80/ruff18a.html
1.Introduction
Anomaly detection(AD)は異常なデータを区別するタスクである。
これらは教師なし学習問題として扱われる。
データの大半は正常データとして仮定される。
目的は"正常性"を正確に記述するモデルを学ぶことである。
(この分野は教師なし学習だから比較的難しい問題なんだな)
伝統的なAD手法では、大量かつ高次元になってきたデータには対応出来ない。
DeepAD手法は有望な結果を示しているけども、
ADベースの最適化が用いられている例は無い。
3.DOC
伝統的な多クラス分類では、クラス外との距離を最大化、 クラス内分散を最小化することを目的とする。
Compactness C
特徴量は同クラスの異なるイメージで似たような特徴量表現であることが望ましい。
特徴量空間はコンパクトであることを求められる。クラス内距離が小さくなるべき。
Descriptiveness D
特徴量は異なるクラスの画像に対して明確な表現を生み出すべきだ。
クラス外距離が大きくなるべき。
伝統的なもんと同じこと言ってんじゃん・・・
イメージとしては、
カテゴリ内の雰囲気検出といったところか。
One-Class Novelty Detection
テストで初めて出てきた異常を検知する
データセットの1クラスをターゲットとして、それ以外を外部クラスとする
⇒多分、One-Class系の分類で一般的な手法なんだろう
⇒外部クラスの一般性が無いと誤検知が発生しそうだし
⇒制限された状況で利用するDLならば、外部クラスの設定が鍵になりそう
ImageNetデータセットを使って訓練して、Caltech256データセットで評価する
DEEP LEARNING FOR ANOMALY DETECTION: A SURBEY
Deep Learning for Anomaly Detection: A Survey
https://arxiv.org/abs/1901.03407
2019.01.23
1.
2.アノマリーとはアブノーマル、データマイニングや統計学の観点でのdeviantsもしくはoutliersをと関連する。
3.Novelty detectionはデータの中で新しいもしくは缶億されていなかったパターンを認識すること。
4.モチベーションとチャレンジ:Deep anomaly detection(DAD) techniques
・従来の手法では画像やデータセットの最適下限であった。そのため、データの複雑な構造を捉え損う
・ラージスケールの異常検知の必要性
・DADテクニックはデータの階層的な判別の特徴を学ぶ。この自動的な特徴学習の能力は専門家による特徴量作成の手間を省く。
・正常と異常の挙動の境界はしばしば正確に定義されない。
5.関連研究
多くの機械学習に対するDL法の発展があったにも関わらず、異常検知に関してのDLは少ない。
6.
7.
8.DLベースの異常検知の違う側面
8.1 入力データの性質
DLNetwork構造の選択は入力データの質による。入力データは大きく連続的なデータ(eg,声、文章、音楽、時系列、蛋白質配列)と非連続なデータ(eg,画像、その他データ)に分けられる。
8.2 ラベルの可用性
ラベルは選ばれたデータが通常か異常であるかを示す。異常はレアであるので、それらのラベルを得ることは挑戦的である。更に、異常の挙動は時間超過とともに変わる。DADのモデルはラベルの利用できる量によって、3つのカテゴリに分類される
8.3 トレーニング目的に基づいて
8.3.1 Deep Hybrid Models(DHM)
DHMは特徴抽出としてAEを主に用いて、AEの隠れ層に学習された特徴は伝統的な異常検知のアルゴリズムone-class SVM(OC-SVM)などの入力となる。
異常検知DL
5つに分類
・教師情報の有無による分類
ー教師あり深層異常検知
ー半教師あり深層異常検知
ー教師なし深層異常検知
・訓練目的による分類
ーハイブリッド深層異常検知
ーOne Classニューラルネットワーク
利用シナリオ
・教師付けされたデータが多く手に入る場合
ー教師あり異常検知、半教師あり異常検知
・異常データはあまり手に入らないが、データ自体は多く手に入る場合
ー教師なし異常検知
・データ自体が多く手に入らない場合
ー訓練済みモデルを利用したハイブリッド異常検知
One Classニューラルネットワークはどこやねん・・・
tensorflow-gpuのバージョン・・・
1.1.0
1.8.0
1.9.0
1.10.0
1.11.0
1.12.0
8,9の並びがおかしいとは思っていたが、
10じゃんおかしくない。