みぞメモ

ブログ作成用のメモ登録

勉強会:ネットワークプログラマビリティ勉強会

ネットワークプログラマビリティ勉強会

■ 日時:2019/06/28 19:00ー21:30
■ 感想

 → SDN が下火になって、この手の勉強会が少なく成った状態での
   久々の「ネットワークプログラマビリティ勉強会」
   ネットワーク技術者の熱意を感じ内容的には充実していて、
   個人的には、得るものが多かった
 → 単体の技術では無く、インフラ技術との重要な要素技術として
   注目して行きたいと感じた

network-programmability.connpass.com


セミナ・メモ)

● ここまでできる! 設定ファイルからのネットワーク構成可視化
                                    TIS 戦略技術センター 萩原 学 さん

複雑化するシステムの全体像を把握し、
「どこで何が起きているのか」をとらえるのはどんどん難しくなってきています。
今回は、最近話題のBatfishというNW機器設定解析ツールと開発中のNW構成可視化ツールを使って、
NW機器コンフィグから構成情報を抽出し、NW図として可視化する取り組みを紹介します。

・可視化 → batfish → NW構成図作成
 → ネットワークトポロジ → データモデルとグラフの対応

・構成の可視化
 → システムの複雑化 → 属人化、多重レビュー
 → モデル中心 → システム設計・
 → ネットワーク図 → RFC8345

● Datadog で作るネットワーク監視のメリットデメリット
                                    サイバーエージェント 山本 孔明 さん

SNMPを用いたネットワーク監視において、
クラウドサービスであるDatadogを利用した場合の事例のご紹介と、
そこで見えて来た活用方法をご紹介します。

・ネットワーク監視
 → 死活監視、性能監視、アラート受信、ログ監視、外形監視

・Datadog
 → Kubernetesとの親和性
 → (サーバ)エージェント導入、監視
 → カスタム・メトリクス監視
 → モニタの設定が出来ない
 → ping, SNMP Trap, Sysloh

● LagopusとShowNetとAzureとDPDK
                                    Lagopus Users Community hibitomo さん
                                    日本マイクロソフト 宇田 さん

Interop tokyo 2019 ShowNetで、LagopusRouterを用いて、
ShowNetとAzureをIPsecトンネルでつないだ。
このときのAzure内のNetworkingと、Azure(Hyper-V)上でLagopusを動かす際のポイントを共有する。

・Lagopus Switch/Router
 → Azure GW IPsec

<<ショート枠>>

● 父さんな、パケットキャプチャで飯を食っていこうと思うんだ
● GNS3上の仮想アプライアンス+GitLabRunner+BDDによるテスト自動化
● ネットワークの自動化について(Ansibleとそれ以外の比較)

勉強会:【eLV 】インセプションデッキ

【eLV】ITコンサルタントへの第一歩シリーズ
   ~インセプションデッキ~
「認識違い」という誰もハッピーにならないロスを無くしましょう!!

■ 日時:2019/06/26 19:30ー21:30
■ 感想

 → 「インセプションデッキ」は、アジャイル開発における
   チーム構築メソトロジの一つのようである。
 → 強制的に作成されたチームで短期間の開発業務をしたことが無い
   私にとっては未知の分野
 → とは言え、今後、この分野に入り込む積もりはないので
   教養の一環としてワークショップを行った
 → 何時も、このシリーズで思うのだが、
   1時間一寸で、分オーダでのワークショップは厳しい
   特に、今回のメンバの意識の低さや等を鑑みて
   得るものが少なかったのが残念だった

elv.connpass.com


セミナ・メモ)

インセプションデッキ とは

インセプションデッキ
 → チームビルディング

・プロダクトのビジョン、コンセプト → 共有
 → 作る過程で共有
 → エレベータピッチ(大義名分)、パッケージデザイン
   やらないことリスト、「ご近所サン」を探せ
 → ビジネスモデルキャンバス

・プロジェクトの根幹

・エレベータスイッチ
 →「潜在的なニーズを満たしたり、潜在的な課題を解決したり」したい
 →「対象顧客」向けの
 →「プロダクト」は、
 →「プロダクトのカテゴリ」です。
 → これは「重要な利点、対価に合う説得力のある理由」ができ、
 →「代替手段の最右翼」とは違って、
 →「差別化の決定的な特徴」が備わっている。

● ワークショップ インセプションデッキ

 技術情報の個別ライブラリの作成という
 今、一番ほしい事の内容を少し整理したて T.T したいかな?

 実現できたら、eLV勉強会で発表のネタにならないか思案中

勉強会:【WBA】全脳アーキテクチャシンポジウム

第4回 全脳アーキテクチャシンポジウム
   脳に学ぶ統合を問い直す

■ 日時:2019/06/26 13:00ー18:40
■ 感想

 → 甘利先生の記憶に関するアーキテクチャに対する問いかけは面白かった
   確かに、現在の静的な記憶モデルでは無い脳の記憶モデルについて
   再度、考察していくのは面白いかも知れないと思った
 → また、松尾先生のおっしゃる高度に圧縮化された情報の解凍時に起きる
   エラーと脳の創造性に対応する記憶の関係について研究するのは、
   価値のあることのような気がした
 → 松尾先生が指摘された、物質→生命→文明の法則を視点に
   色々な法則のあり方を考え直すことや、
   人間の認識限界を含む宝くじ理論も、最近、私が考えている内容に一致して
   示唆に富んでいるように感じた

wba-meetup.connpass.com


セミナ・メモ)


● 脳の基本原理をどうすれば理解できるか
                                            甘利 俊一(理化学研究所 栄誉研究員)

・脳研究の進歩(測定技術)

・生命の誕生
 → 生命=情報+物質 → 生命科学(進化)

・物質の法則(宇宙)、生命の法則(進化)、文明の法則(社会・文化)

・数理脳科学 → 脳の基本原理
 → 進化によるランダムサーチ、使える材料の制約、歴史的な制約
 → 数理的探索、計算論的神経科
 → 神経力学
 → 層状学習回路(深層学習)
   → パターン認識囲碁・ゲーム、
   → 実験式:原理を発見しない → 原理の創出・理解
   → 情報表現、敵対的例題
   → 局所解と大域解 → 途中で止まる局所解が不在、パラメータ数・
 → 統計神経力学
   → 引き戻し計量(リーマン計量・距離)
   → Natural Gdient
 → 関数空間での解析 Jacot et al: Natural tangent kernel
   → 学習が線型問題
 → 自由意志:Lebetの実験


● 理解するとは何か?-- 高次元科学と記号処理
                                            松尾 豊(東京大学)

・表現力の高い関数 → 階層が深い

・CNN, RNN
 → RNN → Transformer(ELMO) → Capsule Network
   BERT → 各層の

・世界モデルの重要性
 → World Model → 生成クエリーネットワーク(GQN:Genetaive
 → 宝くじ仮説 → Lottwey Ticket Hypothesis
   → Overparameterization, Pruning
   → 構造と初期値の組合せ → 当たりくじ

・シンボル vs パターン
 → 知覚運動系と記号系
   → 意識プライヤ(発話、意識状態、表現状態)
   → 観測の予測、発話の予測
   → 言葉から想像する
   → 記号系RNN

・高次元科学(丸山宏先生)
 → 人間が持つ認知限界 → オッカムの剃刀
 → 理解とは何か
   → 記号系にとっての再現可能性
 → なぜ現実世界を理解できるのか
   → 小数パラメータの系を科学技術は捉えている

・人間の文化 → 認知運動系と記号系の乖離


● 脳型でAGIを開発する意義
                                    山川 宏(全脳アーキテクチャ・イニシアティブ)

・脳の何を参考にしているのか
 → 理解の階層構造 外形的(直感的)、内部構造(論理的)
 → 学習とアーキテクチャのトレイドオフ(
 → AGIの中心仮説 → Ben Goe
 → 理解に基づく設計、探索/試作、脳に制約された設計

・知識の獲得と活用
 → 獲得:帰納法 → 整列構造
 → 知識の結合 → 未知の問題の解決
   → 記号AI、認知アーキテクチャ機械学習
 → 破壊的


● パネル討論「汎用性のために脳から何を学べるか?」
                                    モデレータ: 浅川 伸一<br>
                                    パネリスト: 松尾 豊、甘利 俊一、一杉 裕志、山川 宏

アーキテクチャ
 → DL(成果)
 → 人間の記憶系 → 探索、メタ学習、
   → 記憶・忘却能力 → 連想記憶モデル
     → 報酬期待値
     → 考えないで記号処理をしている

・記憶
 → 生命の記憶は、事件的に空間的に静的なモノか?
   記憶の圧縮と解凍 → 記憶の変異


WBA開発促進の概観
                                    山川 宏(全脳アーキテクチャ・イニシアティブ)

ハッカソン → 眼球運動の
 → 帰納配置 → GPS基準

・全脳アーキテクチャ中心仮説
 → WBRA:WBAの参照モデル
 → 帰納マップ、スタブ駆動開発、設計データの構築
 → データ記法(BriCA)
 → 全脳コネクトロームアーキテクチャ

・計算論的認知障害


失語症ハンズオン報告
                                浅川 伸一(東京女子大学)

失語症 → 言語治療士


● 開発方法論
                                大澤 正彦(慶應義塾大学)

神経科学者からの要求
 → 論文ベース、脳の一部に関する知識

・開発者からの要件
 → 実装スキル
 → アーキテクチャ、サーキット


● コネクトーム情報学(WBCA)
                                岡本 洋(株式会社ドワンゴ)

・コネクトーム:全脳アーキテクチャの地図
 → リバースエンジニアニング → ブロック図
 → ネットワークのコミュニティ構造 → 複雑系のブロック図
 → コネクトーム情報学


● 海馬フレームワーク
                                布川 絢子(上智大学)

神経科学 → 分子、細胞、システムレベル

・海馬 → 神経回路 → 機能統合


● 外部連携(BriCA/MAFなど)
                                高橋 恒一(理化学研究所)

・全脳アーキテクチャ → 高性能プラットフォーム
 → 非同期並列基盤
 → 予測的誤差逆伝搬(BP)→ リアルタイム性


● 海外連携(Animal-AI Olympics/Project AGI)
                                荒川 直哉(全脳アーキテクチャ・イニシアティブ)、<br>
                                稗田 雅昭(株式会社TOPWELL)

・Project AGI
 → 新皮質のモデル、海馬のモデル

・Animal-AI Olympics
 → 


● RGoal Architecture
                                一杉 裕志(産業技術総合研究所 人工知能研究センター)

・RGol
 → 再帰的なサブルーチン呼出が出来る
 → 記号推論、ベイジアンネット


● 新皮質マスターアルゴリズムフレームワーク
                                三好 康祐(narrative nights)

・新皮質Master Algorithm Framework


● 若手の会の活動(仮)
                                八木 拓真(WBA若手の会)


● パネル討論「今後のWBAIの研究」(仮)
                                    モデレータ: 栗原 聡 <br>
                                    パネリスト: 梶田 秀司、高橋 恒一、山川 宏

・知識の統合、特化の罠、実時間性、大規模分散非同期、安全性・ロバスト性’耐故障性

・ロボットの研究

・離散事象法

勉強会:【マルレク】3時間で学ぶ Shorのアルゴリズム入門

【マルレク】3時間で学ぶ Shorのアルゴリズム入門

■ 日時:2019/06/21 19:00ー22:00

■ 感想
 → 量子コンピューティングで使用する代表的なShorアルゴリズムの入門
   量子配列の演算、量子ゲートウェイと丁寧な解説であったが、
   基礎力不足で理解が進まなかった
 → 丸山先生の言われるとおりに復習も必要だが、
   もう少し、数学的な基礎力のレベルアップの必要性を痛感
 → 量子コンピュータが最盛期になった時代にもついていけるように
   精進する積もりだが、
   如何せん、応用分野や実現時の破壊力に実感が持てないのが実情
   実用レベルのHW/SWが出てくるまで時間に余裕があるようなので
   焦らずじっくりと準備していくつもり

shor.peatix.com

■ 資料


セミナ・メモ)

● 量子計算の基礎

・古典Bit, 量子Bit
 → bit → 1次元離散的
 → qubit → 2次元連続的 → 複素数

・Qubitの観測 → 古典bit に変わる

・Qubitの状態変換 → ユニタリ変換(長さを変えない回転の変換)
 → 量子誤り訂正 → ユニタニ変換の誤り修正
 → 量子ゲート → ユニタリ行列
   → Xゲート(Bit Flipper)、Zゲート(Phase Flipper)、Hゲート(Hadamard)
 → 量子コイン
 → 計算基底とアダマール基底

テンソル
 → テンソル積に展開できない → エンタングルメント

・量子回路
 → 量子ゲート
 → CNOT量子ゲート

● Quantum Paraleism
● Simon のアルゴリズム
● Shorのアルゴリズム

勉強会:【WBA若手の会】 AI実現に向けた認知科学的アプローチ

WBA若手の会:Human-like AI実現に向けた認知科学的アプローチ
    人間の思考過程をリバースエンジニアリングする

■ 日時:2019/06/19 18:30ー21:00

■ 感想
 → 人間の認知能力を「信念」と「欲求」として数値化して
   ベイジアンモデルで関係性を研究した論文の紹介
 → 数値化して計測・評価する数理的なアプローチには好感を持てたが
   認知モデルとして、対象への価値観や人間の意思についてまでは
   考えが及んでいないようす
 → 研究者も問題視している感じがあるので
   今後の動向については注目していきたいところ

wbawakate.connpass.com


セミナ・メモ)

● 全脳アーキテクチャ(WBA)若手の会

・コンピュータと知能に関係する研究・勉強会
 → 人工知能認知科学神経科

認知科学的アプローチ

● Human-like AI実現に向けた認知科学的アプローチ

  人間思考過程のリバースエンジニアリング

・AIに対する期待と現実
 → 会話の意図を汲む事が出来ない
 → 多数の物理タスクの処理

認知科学とは
 → 哲学、心理学、神経学、情報学、人類学、言語学
 → 人間の認知能力を計測
   → 分類・回帰 vs 世界を解釈・説明
   → 人間の認知的基盤
 → 人間の認知的基盤
   → 直感心理学
   → 直感物理学
   → 構成性

・人間の認知機能のモデリング
 → 直感心理学
   → 幼児の直感心理学 → 意図の推測、行動
   → 心の理論
   → 信念・欲求に基づいた行動計画
     → 人間の行動 知覚 → 信念・欲求 → 行動
     → 機械に実装できるモデル
       → 仮想シナリオの設計、欲求:要求の強さ、信念:要求実現の確率
       → 信念の欲求と信念の数値化と関係性 → ベイジアンモデル
       → 中間モデル、更新モデル
   → 行動から知覚の予測
     → 知覚の推論能力をモデリング
 → 直感物理学
   → 幼児の直感物理学 → 確率モデル
     → 直感 → オブジェクトの注視時間
   → 発生確率が低いものほど注視 → 認知モデルの表現
 → 構成性
   → 物事を要素に分解して考える
     → 識別、例の生成、概念の生成

デジタル情報と符号の理論(’13):テキスト目次

1.アナログとデジタル

1.1 アナログとデジタル
1.2 情報のデジタル表現
1.3 デジタル情報処理の特徴

2.数の符号化

2.1 位取りの記数法
2.2 コンピュータ上での数の表現

3.確率論の基礎

3.1 場合の数
3.2 事象と確率
3.3 確率分布

4.情報量

4.1 情報とは
4.2 情報量
4.3 情報量の加法性

5.エントロピー

5.1 エントロピーとは
5.2 熱力学のエントロピー情報理論エントロピー
5.3 条件付きエントロピー
5.4 相互情報量
5.5 カルバック・ライブラー情報量

6.ベイズの定理

6.1 ベイズの定理
6.2 情報量との関係
6.3 ベイズの定理の応用

7.通信のモデル

7.1 通信のモデル
7.2 誤りのある通信路
7.3 情報源のモデル

8.情報の圧縮

8.1 符号化と符号
8.2 符号の基本的性質
8.3 情報源符号化の限界

9.線形符号

9.1 線形符号
9.2 生成行列とパリティ検査行列
9.3 シンドローム

10.巡回符号と畳み込み符号

10.1 巡回符号
10.2 シフトレジスタによる符号化
10.3 畳み込み符号

11.テキストの符号化

11.1 コンピュータ上での文字の表現
11.2 符号化文字集合文字符号化方式
11.3 文字コードにまつわる留意事項

12.音の符号化

12.1 オーディオと圧縮技術
12.2 波形符号化
12.3 分析合成
12.4 MP3

13.画像の符号化

13.1 画像の表現方法
13.2 画像の圧縮処理
13.3 画像の圧縮符号化技術

14.動画の符号化

14.1 動画の表現方法
14.2 動画圧縮技術
14.3 MPEG 符号化

15.数列の利用

15.1 擬似ランダム系列
15.2 暗号の利用
15.3 ハッシュ関数の利用

入門線型代数(’14):テキスト目次

1.数ベクトル空間

1.1 準備(A)
1.2 数ベクトル(A)
1.3 数ベクトルの演算(A)
1.4 一般の場合(B)

2.行列

2.1 行列とは(A)
2.2 一般的諸定義(B)
2.3 行列の演算(A)
2.4 行列の演算の一般的定義(B)

3.連立1次方程式の解法

3.1 掃き出し法(A)
3.2 幾つかの例 その1(A)
3.3 幾つかの例 その2(C)

4.階数

4.1 行基本変形(A)
4.2 階段行列(C)
4.3 基本行列(B)
4.4 正則行列とその性質(A),(C)
4.5 逆行列の計算方法(A)
4.6 逆行列の求め方(C)
4.7 幾つかの練習(A)

5.置換

5.1 置換とは(A)
5.2 一般の場合(B)
5.3 置換の符号(A)
5.4 証明(C)

6.行列式

6.1 行列式の定義 ー 2次の場合(A)
6.2 行列式の定義 ー 3次の場合(A)
6.3 2次と3次の行列式について(B)
6.4 行列式の定義 ー 一般の場合(B)
6.5 行列式の定義について(B)
6.6 行列式の表し方(A)
6.7 一般の場合(C)
6.8 練習(A)
6.9 成分に0を含む行列の行列式(B)
6.10 三角行列(B)

7.行列式の性質

7.1 2次と3次の場合(B)
7.2 列に関する幾つかの性質(A)
7.3 証明(C)
7.4 行に関する性質(A)
7.5 基本変形行列式(A)
7.6 行列式の特色つけ(C)

8.行列式の展開

8.1 3次の場合(A)
3.2 一般の場合(B)
8.3 逆行列を求める準備(B)
8.4 逆行列の求め方(A)
8.5 一般の逆行列(B)
8.6 連立方程式の解法(A),(B)

9.独立と従属

9.1 線型結合(A)、(B)
9.2 線型独立と線型従属(A)、(B)
9.3 基本変形と線型独立性(C)
9.4 定理と練習(A)
9.5 幾つかの定理(C)

10.部分空間

10.1 部分空間の定義(A)、(B)
10.2 生成する空間(A)、(B)
10.3 部分空間の基底(A)、(B)
10.4 部分空間の共通部分と和(A)、(B)

11.線型写像

11.1 準備(A)
11,2 線型写像の定義 その1(A)
11,3 線型写像の定義 しの2(B)
11.4 幾つかの線形写像(B)
11,5 線型写像の像と核(A)
11.6 線型写像の像と核(B)

12.次元

12.1 行列の階数について(C)
12.2 練習(A)
12.3 幾つかの定理(C)
12.4 次元(A)
12,5 次元についての定理(C)
12.6 行列の階数と次元(C)

13.基底の変換

13.1 基底の変換 その1(A)
13.2 線型写像の表示 その1(A)
13.3 基底の変換 その2(B)
13.4 線型写像の表示 その2(B)

14.固有値固有ベクトル

14.1 固有値固有ベクトルの定義(A)
14.2 幾つかの定理(C)

15.行列の対角化

15,1 対角化の条件(C)
15,2 幾つかの練習(A)


A:具体的な例で解説(論理的な正確性を犠牲にした表現あり)
B:一般的な形式で記述
C:定理の証明など記述