ぱてんとり の 巣

知財と積読消化

そりゃそうだよね現象

情報分析するぞーーーー

と息巻いて、

統計マップとか書いたら

 

「うん、知ってた。」

 

というたぐいの結果しか得られずやめちゃいました、

的なエピソードはよく聞く。

 

自分も陥りがちだけど、

「仮説をもって臨む」

というのが常々、大事だなと思う。

 

学術論文でも、

経験則として知られていることを

比較実験してメカニズム考察して、

一般法則として確立する/既知の法則に包摂する

ということをすると思う。

 

情報分析の対象というのはそもそもオープンソース(公知)情報

が大部分を占めるので、

なんら仮説をもたずに統計を取ったときに、

当たり前の結果がでてくるのは、それはなんというか当たり前である。

 

例えば、自社分野で特許を統計分析した結果が、全部想定外でした、

とかいうことがあれば、それはむしろ最初の認知がゆがみすぎてるので、

いや普段から競合の特許くらい読もうぜ、というだけの話になる。

 

ただ、情報分析をリクエストされる場合って、

ある程度みんなが知ってる情報は押さえたうえで、

意外性を求められるので、じゃあどうするのということになってくる

ここで出てくるのが、「仮説を立てよう」という話になる

 

仮説設定あたって、2種類のアプローチを自分はとっていて、

 

1,全体を俯瞰的に見て、少しでも変化があるポイント、

  違和感を感じるポイント、特徴点、を探し出す

ex 最近これ増えてない?減ってない?

 

2, 政策的にトレンドになっている事象、海外で流行り始めたこと、

  など、変化予測となるニュースを外部から引っ張ってくる。

ex この基準が欧州では確立されて製品も対応してるらしいよ

 

1,2はあくまで一例だけど、

こうした「フック」となる観点を定めたうえで、

「それって本当?」「裏付けるデータがとれないか?」

「因果関係やメカニズムを示唆するデータ関係がないか?」

という筋で進めていくのが生産的なのだろう。

 

なお、

「うん、知ってた」という内容がメインの

成果物も悪いものではないと思っていて、

 

小学校のときにテレビ見てないと話題についていけなかったように、

みんな(他社が)知ってても自社が知らない、

ということが生じると非常に後れを取る。

 

事業領域が複数にわたるとウォッチする対象も増えるし、

既存事業が他領域とクロスオーバーする機会もあったりするので、

意外と抜けモレも出てくるのと思っている。

 

この場合も、

事前に「XXという事実は知られている」

というのをリストアップしておいて、

それを分析結果で確証していく、という形をとるのが良いと思う。

仮に既知の知識と違う部分が出てくれば、それが新しい仮説にもつながってくる。

 

なんにせよ、

最初にノープランでCSVをダウンロードしてとりあえずグラフに起こす、

というのを避けるようにしたい。