読んだ:Modeling Opinion Dynamics in Social Networks(WSDM2014)

Modeling Opinion Dynamics in Social Networks

かいつまんで読んだので適当。

ネットワーク上のユーザが周辺のユーザを参考にして意見を繰り返しかえたり、世論の構造を理解することはバイラルマーケティングや情報拡散において重要。
本稿のモデルは周辺ユーザを参考にして意見を変化させるモデルをベーストしたものでBIASEDVOTERMODELと呼ぶ。
このモデルを利用することで、意見の同意や対立が自然に表現できることを示す。

社会心理学者のAscy氏らが提唱している、”white is black”
という現象に基づいている。これは、もし周りの人間が同じことを
言うと、自分の意見が真逆でも高確率で揺らぐというもの。
※Ascyらが行った実験
被験者がある部屋におかれる。その際数人の引き立て役を用意する。
彼らは真であることが自明である質問に対して必ず偽の回答をする。
その結果
1)協調の限界はグループの大きさに依存する
2)一人でも引き立て役が味方になると協調性が顕著に下がる
という知見を得ている。
※Deutsch,Geraedの実験
協調を2つのタイプに分類した
1)normative...被験者が社会的受容を得るかのように協調する
2)informational...被験者が他の人に自分のevidenceを答えた後、最終的に周りの決定に合わせる

・contribution
上記の現象をオンライン上のユーザで実験することで、その結果を取り込んだモデルを提案する。隣人のサイズだけでなく意見の分布、被験者とその意見との距離感も考慮する。意見の質/量を取り入れる。

●オンラインユーザを利用した調査を行った結果、ユーザが最初の意見をもってから最後の意見を決めるまでの振る舞いは、votermodel的に任意の隣人の意見を採用するパターンと、DEGROOT的に周辺のユーザの意見の平均を採用するパターンと最初の自分の意見から曲げないStubbornパターンが存在することがわかった。
さらに、votermodelの部分に関しては、ユーザの最初の意見に近い人の意見を採用しやすいというバイアスがかかっていることがわかった。

これらを考慮したモデルBIASEDVOTERMODELを提案する。
これはDEGROOTモデルとVOTERMODELを組み合わせたもので、そこにStubbornパラメータ\alpha_iとバイアスパラメータp_iを用意する。

モデルのダイナミクスについて確認するため、ランダムグラフとPower-lawグラフを用いたシミュレーションにより、モデル(特に今回導入された二つのパラメータの効果)について述べている。

個人的にはあまり刺さらなかった。Opinion Dynamicsを考えるときに何を持って人の意見と言っていいのか知りたかったので、そこらへんに言及しているかなぁと期待して読んだ感じだったが、そういう論文ではなかった。正解データがないのが大変な感じがする。

読んだ:Learning Social Network Embeddings for Predicting Information Diffusion(WSDM2014)

情報拡散の分析・モデル化は既知のグラフや近接的な構造の上で扱われる。
しかし、複数のアクターとメディアの相互関係による潜在的な現象は複雑であり、
既存のモデルや限られた仮説だけでは説明できない。
我々は、この問題に対する新たなアプローチとして、連続的な空間上に
観測された時間的なダイナミクスマッピングする。
拡散カスケードに関係するノードは潜在的に表現された空間に投影される。
これは、投影空間内ノードの近接性をカスケード内の感染時間の近接性に
反映した拡散カーネルを学習することになる。
提案手法はいくつかのこれまでにない特徴を持っていて、
・パラメータはカスケードサンプルから直接学習し、それまでの拡散構造には従わない
・等式が投影空間内に閉じた形で表されることから、離散的なモデルに比べて予測に対する推定が早い
本手法の拡散予測の精度並びに推定スピードが既存のものより優れていることを示す。

カスケードからユーザ間の情報拡散における距離感を潜在空間に写像してあげるイメージ。

●定義とモデリング

N人のユーザ集合U
Cカスケード集合
C_l \subseteq C ...学習用のカスケード集合
C_t \subseteq C ...テスト用のカスケード集合
s^c...カスケードc \subseteq Cの情報源
S^c \subset U...カスケードcに含まれるユーザ集合
t^c(u_i)...カスケード内でユーザがアクションを行った時刻
q_c \in \mathbb{R}^Q...カスケードcの特徴ベクトル
Qは特徴空間の大きさ

「アプローチ」
観測された拡散過程を連続(ユークリッド)空間に配置すること。
そのために、カスケード集合からダイナミクスをとらえることが出来る拡散カーネルを学習する。
Z=\mathbb{R}^n...n次元ユークリッド空間で定義される潜在空間
カーネルの学習は、今回で言えば空間Zの特定位置にノードを配置することであり、
潜在空間は学習用のカスケードから得られた感染時刻を表す。
f:id:A_Koide0519:20140314155552p:plain

「この手法の利点」

  • 連続空間への配置問題は従来からある最適化法で容易に解ける
  • グラフ構造や拡散傾向の仮説を作らなくてよい
  • シミュレーションの必要がない
  • 他の情報との統合が容易

「拡散カーネル」"CDK"
幾何学多様体\chiを定義する。
その際、拡散カーネルK(t,y,x):\mathbb{R}^+*\chi*\chi \rightarrow \mathbb{R}と表現する。
カスケードの情報源yと時刻tと位置x
ただし、t=0のときK(0,y,x)=\delta(y-x)
\deltaディラックデルタ関数
n次元のユークリッド空間に対して、拡散カーネルは以下のように書く
K(t,y,x)=(4 \pi t)^{\frac{-n}{2}}e^{\frac{||y-x||^2}{4t}}}

「潜在空間内の拡散カーネルの学習」
ベストな拡散カーネルを学習する問題。
拡散カーネル関数を以下のように置き換える。
K(t,s^c,u_i)
情報源s^cが与えられた時の時刻tでのu_iの感染スコアを返す。
Z=(z_{u_i}...z_{u_N}),z_{u_i} \in \mathbb{R}
潜在空間\mathbb{R}ないのユーザu_iの位置。
最終的にこんな感じ
K_Z(t,s^c,u_i)=(4\pi t)^{\frac{n}{2}}e^{\frac{-||z_{s^c}-z{u_i}||^2}{4t}}
この問題は、どのように情報が拡散したかをモデル化すること、すなわち
各カスケードcに対して最適なZを見つける問題となる。
このときの経験誤差(標本誤差)を以下のように定義する。
L(Z)=\sum_{c \in C_l}\Delta(K_Z(.,s^c,.),c)
\Delta(K_Z(.,s^c,.),c)は、情報源s^cが与えられた時の、拡散カーネルK_Z
観測されたcとの差異。最終的には、経験誤差を最小にするようなZを推定
する問題となる。
また、2つの制約条件を与える。
1.任意のユーザu_iu_jがあるカスケードcに存在し、u_iの方が早くアクションをとった、すなわちt^c(u_i)\ < t^c(u_j)の時、K_Zは以下のように定義される。
\forall t, K_Z(t,s^c,u_i) > K_Z(t,s^c,u_j)
2.任意のユーザu_iu_jが、u_iはカスケードcに存在しu_jは存在しないとき、
K_Zは以下のように定義される
\forall t, K_Z(t,s^c,u_i) > K_Z(t,s^c,u_j)

[Zの学習]
学習には確率的勾配降下法を使う。潜在空間上のユーザ間の位置関係を学習率\alphaを使って修正して行く。
[感染過程の算出]
情報源から各ノードの距離を計算するだけ

これらの操作から、既存の手法よりの高速に処理が可能になる。
※実験部分では速度の向上には全く触れられていない...

「属性を使った拡散カーネル」"CSDK"
情報の内容によって拡散の仕方を変える。contentsを表す特徴ベクトルq^cを拡散カーネルに導入して、ユーザ間の位置関係がcontentsにも引っ張られるようにする。

●実験
データは3つのWebデータ。
ブログの投稿関係グラフ、Memetracker、Digg(Facebookのシェアみたいな感じ?)
ベースラインではユーザ間の関係を表したグラフを使うが、提案手法では当然
使わない。

評価手法はMean Average PrecisionとPrecision-Recall Curve
情報源を与えたときに、早く伝わるユーザから順番に並べていく。
そのランキングが実際のカスケードで伝わった順番とどれだけ合っているか。

ベースラインとして5つ用意
1学習データで影響を受けた回数をそのままスコアにしたもの
2学習データで早く感染しやすいユーザ程感染スコアを高くする
3ICモデル...グラフ構造と拡散確率
4Netrate...グラフ構造を必要としない
5GraphDiffusion...グラフ構造を利用したカーネル法

提案手法がほとんどの場合で良いスコアが出る。
contentsを導入した手法CSDKが最も性能が良かった。

●所感
内容としては普通に面白いけど、自分が期待していた期待影響度最大化とかそういう話ではなかった。実際のソーシャルネットワークでの、グラフ構造上でのユーザ間の関係と、情報拡散上でのユーザ間の関係は実はこんなに違うんですよ的な話のほうがしっくりくる感じがした。
読んでる途中で"これ最終的に伝わった人数とかどういう風に推定するんだ?"と思ったけど、評価の部分でようやくそういう問題設定じゃないんだなと納得できた感じだった。問題設定の部分とかちゃんと読めてなかったのかな。

メモ:Visualizing Brand Associations from Web Community Photos(WSDM2014)

Visualizing Brand Associations from Web Community Photos

見た目が大変良くて読み始めたけど途中で完全に沈没した。
アウトプットはものすごくビジネス受けしそうな感じはある。
1st autherがdisneyの人

・ブランドアソシエーション...マーケティングにおける主要な発想のひとつで、
ブランドに対する消費者のtop-of-mindな属性や感性を表現すること。
・top-of-mind..."〜と言えば?"と訪ねたときにまず最初に思い浮かぶもの
伝統的に、ブランドアソシエーションは消費者の反応のテキストデータや、
オンライン上の会話ログを分析することで行われていた。
本稿では、オンライン上の大規模な写真群を活用することを提案する。
技術的なステップ
1)ブランドと関連づける核となる抽出・可視化の発想
2)イメージ内でブランドの領域を局所化する
48ブランドの500万の画像をオンライン画像共有サイトから収集。
提案手法のブランドアソシエーションがテキストからではほとんど
得ることが出来ないようなブランドの補完的な見方を発見できる
ことを示す。

図を見るのが一番早い

f:id:A_Koide0519:20140224030537p:plain
((eg:http://www.cs.cmu.edu/~gunhee/publish/wsdm14_brandassoci.pdf fig1(a)))

1)ネットワークもしくはマップでブランドに関連づけた重要な概念
を視覚化する。画像群をクラスタリングして低次元空間に射影する。
2)教師なしの方法で、最もブランドに関連づけられる部分画像を抽出
する。

○問題の定式化
・データ収集
4つのカテゴリ(高級品、スポーツ、ビール、ファーストフード)計
48カテゴリ500万の画像をFLICKER等の4サービスから収集。
・アプローチの流れ
a)各ブランドの画像集合を準備
b)画像の類似度に基づいてKNNグラフを構築
c)グラフから標本として代表的な画像の集合を発見する、そして
画像集合を標本集合に基づいて分割する。
d)ブランドの局所化を画像分割の研究で活発に議論されている
cosegmentation問題として扱う。

○アプローチ詳細
・画像間の類似度行列からKNNグラフを作成する
画像のメタデータ(同様の所有者・同時間に投稿された)も類似度
として利用する。
・KNNグラフを利用して標本を抽出する。ダイバーシティランキング
アルゴリズムというものを利用してL個の標本を抽出。
続いて、ランダムウォークを利用したクラスタリング手法によって
画像群をいずれかの標本グループに属するようにクラスタリング
・ブランド局所化
上述の処理によってL個のクラスタが作成される。
各々のクラスタに対し、MFCアルゴリズムというものを利用し、
各画像を前景と背景に分離する。

○ブランドアソシエーションマップ
ラジアル距離と角距離を利用してクラスタを円形の図面上に描画する。
Nielsenのアルゴリズムを今回のアソシエーションマップに適用できる
ように改良。目的としては、各クラスタ極座標(\br{r},\br{\theta})
を求めること。

○実験
クラスタリングの妥当性とブランド局所性を、いくつかのイメージに
手動でアノテーションしたものを準備しておいて評価に使う。
クラスタリングではスペクトラルクラスタリングやK-means、ブランド
局所性ではLDAなどをベースラインとして利用し、提案手法の妥当性
を示している。

読んだ:Search Engine Click Spam Detection Based on Bipartite Graph Propagation(WSDM2014)

殴り書いていくスタイル。

Search Engine Click Spam Detection Based on Bipartite Graph Propagation

クリックの情報は文書のランキングにおいて重要な要素である。
結果、いくつかのWebサイトは彼らのページへの不正なクリックの増加に
よって高ランクを得る。これはクリックスパムと呼ばれている。
不正なクリックの特徴に関する分析をベースに、
1.ユーザのセッションを行動だけでなく、セッションの目的とセッション間の
間隔もまた考慮に入れた3つの連鎖によってモデリングする
2.より不正を働いているセッションを発見するため、不正を働くユーザに有効になる
ように2部グラフの伝搬アルゴリズムを使用する
3.高precision,recallに達するような不正なセッションパターンを得るために、
パターンセッションの2部グラフ伝搬アルゴリズムを用いる
中国の一日あたり8000万クリックのデータを用いて、97%のprecisionで全体
の2.6%のクリックがスパムとして検出された。

・現実でのクリックスパムの例
a.クエリを要求した後同じURLを繰り返しクリックする
b.異なったクエリを要求した後同じドメインのURLを繰り返しクリックする

・データの収集
中国のコマースサイトから1日8000万の検索ログをランダムに収集。
時間、検索クエリ、クリックタイプ、クリックしたURLを収集
クリックログにはタグと呼ばれるものがついていて、どのタイプの検索をしたのか
わかるようになっている(画像検索とか動画検索)
ここで、検索タグとクリックされたURLに不一致が起きた場合、それはクリック
スパムだと言える。動画タグの検索なのにクリックしたURLが動画タグの結果には
存在しないなど。さらに、クリックされたURLとタグが合致しなかった場合も
スパムとする。
この処理により、収集したデータの0.54%に不正の疑いがあった。

・ユーザのセッションモデリング
セッションの定義・・・ユーザが最初のクエリを検索エンジンに要求してから
30秒間とする。
ユーザの行動をいくつか定義
Q_i…クエリの要求。iは異なったクエリを区別するのに使う。
W_i…webの結果のクリック
O_i…スポンサーのついた結果をクリック
N…新しいページのロード
T…ページのスクロール
A_i…その他のクリック(タブのクリックなど)

また、前章とは異なり、異なったクエリや異なったリンクをクリックした場合に
別IDを与えることにする。 別クエリや別リンクのクリックは自然だが、同一
クエリの連発やリンクのクリックは不正の疑いがある。

・時間間隔
セッション内の行動が過度に頻繁であればbot的な動きである疑いがある
前のアクションから次のアクションに動くまでの時間を各ユーザの行動
毎にプロットしてやると、大体どの行動も同じくらいの時間間隔になっている。

この知見を利用してtime_intervalを4つのセグメントに分解
0秒
1-10秒
11-30秒
31秒-
すると、ユーザのセッションをモデリングできる
例:(Q0,0),(T,1),(Q0,1),(Q0,0),(W2,1),(Q1,3)...
クエリの送信->1-10秒後、ページスクロール->1-10秒後同じクエリ再送信

  • >連続で全く同じクエリ送信->1-10秒後、3つ目のページをクリック->

30秒以上経過後、別のクエリを送信->...

・セッションレベルでのクリックスパム認識
1.マルコフ遷移確率を用いた不正セッション検出
※今回の比較対象と成るベースラインの方法。
次のイベントへの遷移はその前のイベントに強く依存しているはず。
なので、ユーザのセッションをマルコフ遷移モデルで表現する。
Q_{i,j}...状態jから状態iに遷移する確率変数
Q_i...\sum_{j}Q_{i,j}
Pr(i,j)...状態iからjへの遷移確率

ここで、ユーザの各セッションにはセッション内の個々の状態遷移確率の
かけ算によって尤度スコアが与えられる。
高い尤度を持ったセッションは通常の振る舞いであるといえるし、低い尤度
であればレアな振る舞いと言える。
実際には尤度が非常に小さく成るので対数尤度+セッション数での正規化
を行ってaverage Marcovian Loglikelihood(MLH_avg)を得る。
従った、小さなMLH_avgはセッションが正常でないことを表す尤度と成る。

この手法を1日分の5000万のユーザセッションデータで試したところ、
99.6%のセッションのMLH_avgが(-4,0]に収まっていた。従って、-4より
小さいセッションを不正なセッションと定義する。

2.不正セッション元を発見する
ラベル伝搬アルゴリズムを用いて不正セッションの元を発見、不正ユーザ、
連鎖パターンを検出する。
ここで検出された不正セッションをseedとして後述のグラフ伝搬アルゴリズム
に適用して行く。

5つの不正セッション形式を定義。
・(QAi)*:異なったクエリを投げ、同じドメインのWebページを繰り返し
クリック
・(QiT)*:同一クエリを投げ、繰り返しページスクロールを行う
・(Qi)*:キーワードの頻度を上げるため同じクエリを繰り返し投げる
・Q(Wi)*:クエリを投げた後、Webページを短い間隔で繰り返しクリックする
・Q(Ai)*:クエリを投げた後、同じドメインのページを短い間隔で繰り返しクリックする

上記の形式を一日分のユーザセッションデータで検出してみた。
その際、ユーザのセッション全体の50%以上の部分的な連鎖とマッチしたものを検出する。
各5つの形式に対して、100こずつランダムにセッションを抽出し、人為的アノテーション
とpresicionの評価を行う。
すると、98.6%という極めて高いprecisionで不正なセッションを検出できた。

3.ユーザとセッションからなる2部グラフの伝搬アルゴリズム
何人かのユーザのセッションが不正であることがわかれば、そのユーザの他のセッションも
同様に不正なものであるという考えをベースにする。
先述の方法で検出した不正ユーザをこの方法で一気に検出する。
2部グラフを作ってみると、一日で4000万のユーザと100万のセッションから成るグラフが
構築できた。

                    • -

アルゴリズム

                    • -

sscore...セッションスコア
uscore...ユーザスコア
w_{ij}...ユーザをセッション間の重み。ユーザiがjのセッションを行った頻度。
(1)セッションにスコアをつける。2の方法によって不正判定されたセッションに1、そうで
なければ0をつける
(2)ユーザのスコアを計算。usore(u_i) = \sum_{i}w_{ij}*sscore(s_j)
(3)セッションのスコア計算。不正なセッションは再び1に設定。そうでないものは
ssore(s_j) = \sum_{j}w_{ij}*uscore(u_i)
(4)2-3の操作を|sscore_n-sscore_n-1|が指定したしきい値より小さくなるまで繰り返し

4.パターンとセッションからなる2部グラフの伝搬アルゴリズム
3によって不正ユーザのリストと不正なセッションの連鎖を得ることができる。これを
使ってすべての不正な連鎖パターンを検出する。
一定数の不正なセッションパターンとマッチするセッションがあれば、その他のセッション
も不正であるという仮定に基づく。
基本的な考えは、頻繁な連鎖パターンを求め、不正スコアをグラフに拡散させ、不正な
連鎖パターンのリストを得る。
頻繁な連鎖パターンは、連鎖データベースDを用意しておき、任意の連鎖パターン\alpha
\alpha > \theta|D|を満たすときの\alphaとして定義される。(\thetaはユーザ指定)

                    • -

アルゴリズム

                    • -

C...不正セッション連鎖集合
P...高頻度連鎖パターン集合
S...セッション連鎖集合
w_{i,j}...セッションとパターン間の重み
sscore...セッションスコア
pscore...パターンスコア
(1)セッションにスコアをつける。先述のアルゴリズムと同様
(2)pscoreを計算。リンクがあるセッションのsscoreの値と重みのかけ算
(3)sscoreの計算。リンクがあるパターンのpscoreの値と重みのかけ算
(4)2-3の操作を|sscore_{n}-sscore_{n-1}|が指定したしきい値より小さくなるまで繰り返し

・評価
1.ユーザとセッションから成る2部グラフ伝搬アルゴリズム
アルゴリズムを一日分のデータに試してみる。
不正スコアの高かった(>0.5)セッションをサンプリングして0.1区切りでprecisionを
手動で評価する。当然スコアが高ければ高い程precisionが高くなるはず。結果としても
(0.9,1]のスコアでprecisionが0.966と成った。そして全体のログの約2.1%がこのレンジ内に
入っている、すなわちクリックスパムであった。
一週間単位で一日ずつ評価してみると、月曜、火曜、水曜でクリックスパムが多く検出された
。どうやらこういった業者やユーザは週始めにアクティブになりやすいらしい。

2.セッションとパターンから成る2部グラフ伝搬アルゴリズム
\thetaの適切な値
0.005-0.01で動かしてみると、0.01が最も良く、precisionが97%だった。1と比較すると、
クリックスパムとして検出されるセッション数が多くなる。

3.3つのアプローチの比較
上述の2つの方法+ベースライン
ベースラインのprecisionが90%に対し提案アルゴリズムはどちらも97%という高いprecision
をたたき出している。
さらに、セッションとパターンから成る伝搬アルゴリズムを使うことで、より多くの不正な
セッションを検出することが出来るようになる。
さらに、検索結果の妥当性を評価できるNDCGを利用する。
クリック数が1000以上かつクリックスパム率が10%以上のクエリを抽出し、CTRの高い順に
検索結果をソートする。
CTRを計算する際、
・そのまま
・クリックスパムによるクリックを取り除く
の2パターンを用意しておき、NDCGの値を比較する。
その結果、クリックスパムをのぞいたNDCGの方がのぞかないよりも高くなった。すなわち、
クリックスパムにより上位にきたURLがクリックスパムをのぞいたことで妥当な順番に
下がったと言える。

MACにPCをかえてバックスラッシュが打ちづらくなって初めて不便だと思った。

読んだ本とか@2013_01

仕事に追われて借りた本を中途半端なまま返す日々が続いている。

広告に近い本を2冊

アトリビューションという新しい広告指標の話。

アトリビューション 広告効果の考え方を根底から覆す新手法

アトリビューション 広告効果の考え方を根底から覆す新手法

”現状の広告効果指標では、コンバージョン(購入etc)につながった広告というのはその寸前にクリックした一つの広告に限られるが、実際にはそれまでにみたりクリックしたりしてきた関連広告もコンバージョンに寄与しているはずだ。”という考えに基づいて、他の広告にも貢献度を配分する手法を紹介している。
広告配信会社としては
・売れにくい広告の価値を上げる
・コンバージョンに至るルートの解明
などのメリットがある。
はやりのDMPなんかと繋がってくると現実味が出てきそうですね。


米国では既に取り組まれているらしいニューロマーケティングと呼ばれるものの紹介。

簡単に言えば、人の本音に迫ったマーケティングをもっとしていきましょうよという話でした。
現代のマーケティングでは、アンケートや大量のデータを統計解析した定量的な結果を
使って行われることが当たり前になってる。
その結果、会社ごとに差別化された商品が作られなければならないにもかかわらず、アンケートでは消費者の需要が同じような結論になることから、にたような商品しか出せなくなっていると言う主張。
そして、人間の本音は文章やアンケートではなく、脳波に顕著に現れることを説明してます。
ここでは、中国のカメラCMを例に上げていて、
アンケートでCMの印象に残った部分を被験者に聞いてみると、
・出演していたタレント
という意見が大半だったが、脳波では全く別の部分に顕著な反応が見られた。それは、
・被写体となる自然の風景が代わる代わる映し出される場面
だった。タレントが出てくる場面ではむしろ脳波の反応は弱くなっていた。
こんな感じで、建前と本音は違いますよという感じ。

あと、
・会社の名前のごり押し
・商品を隅から隅まで説明しきってしまう
・隙がない完璧な商品を作る
とかいう王道やめろ!というはなしもあって、商品にはスリルがあるくらいが実はいいみたいなことも書いてある。
ここではIKEAの例を引き合いに出して、
・わざわざ車で来させる
・自分で組み立てる
・部品に欠陥があることがある
みたいな普通なら面倒でマイナスになりそうなことが、成功の一因になっていることを紹介している。

このような脳の仕組みを利用したマーケティングをニューロマーケティングと呼ぶ。
導入には、
ニューロマーケティングの専門家が少ない
・ビジネス側とニューロマーケティングどちらにも理解のある人がいない
・評価が定性的なものになるので、それを加味してくれる環境がないといけない

などの障害がある。

専門家が少ないとか実問題とビジネスがわかるスーパーマンが少ないというのはやや収束気味のデータサイエンティストもにたような感じですかね。

2013年終了

社会人になった。
理想と現実の差は必ずあるものという認識だったので、その辺はそこまで強くは感じなかった。
むしろ、この一年過ごした環境は自分の予想していた物よりかなりいいものだったと思う。予想がネガティブすぎただけかもしれないが。*1
個人的にはもっとじっくりやりたい仕事も多いものの、かなり短い周期でがんがんやって行くような印象なので、それについて行くだけの基礎能力が必要だなというのを強く感じた。
同期は国際会議があるたびに読み会を出来るようないい仲間に巡り会うことが出来た。

学術を現実問題に落とすことはまだ出来ていないので、それが今後の一つの目標になりそう。

来年はとりあえず残業を減らすことと、基礎能力を固めるところに重点を置きたい。
・・・といいつつ休日は部屋でぐだぐだしているでしょう。

社会人が人生で一番楽しくなりそうな気がしているみたいなことを回りに言うと”こいつ大丈夫か?”みたいな雰囲気になるのつらい。

*1:結局のところ、自分の近くにいるチームのメンバーや上長に強く依存するということだと思います。

CIKM読み回やりましたが発表しなかった

タイトルの通りです。

スライドは作ってました。無駄になりましたが・・(´・ω・`)

他の発表としては、

アクティブラーニングの話やバイオ分野でのデータ解析のLT、ディープラーニングなど、7人で開催したとは思えない濃い内容でした。

@がNIPSやろうと言ってましたが僕には読むのが困難になりそうな分野なのでWSDMまで待ちたいところですね。