焦点

でっかいことに焦点を

【データサイエンティスト023】サービスを検討

データサイエンティストの本を参考に勉強しつつ2月中に何らかのサービスを出そうと格闘?している連載。

これがその本。

 

改訂2版 データサイエンティスト養成読本 [プロになるためのデータ分析力が身につく! ] (Software Design plus)

改訂2版 データサイエンティスト養成読本 [プロになるためのデータ分析力が身につく! ] (Software Design plus)

 

 そして昨日と同じくUdemyのサイトでもお勉強ちぅです。

www.udemy.com

 

お勉強はお勉強として。

 

今日はtableauまで届かなかったので(すみません、、、)特に書くことはないのですが、、。

 

ないならないか。

 

 

明日はTableauをやりつつ新たなサービスの種を模索する、ということで。

 

あと5日!

【データサイエンティスト022】サービスを絵にする④

データサイエンティストの本を参考に勉強しつつ2月中に何らかのサービスを出そうと奮闘?している連載。

本はこれ。  

改訂2版 データサイエンティスト養成読本 [プロになるためのデータ分析力が身につく! ] (Software Design plus)

改訂2版 データサイエンティスト養成読本 [プロになるためのデータ分析力が身につく! ] (Software Design plus)

 

 あとUdemyでも勉強開始ちぅ。超いい感じ。あんなに苦戦したnumpyもすいすい。

www.udemy.com

動画にして良かったことの一つ(しょぼい版)は、読み方がわかること。

numpyなんてどうやって読むか本ではわからなかったもんね。

 

ということで本筋のこのブログ。

数日前にサービスを絵にしてさっそくコードにしてデバッグして、、、と息巻いていたけれど、しかしながら、の現状。

 

さてさて。

昨日は下記3つのアイデアを少し深掘りした。

    • データベースの形を綺麗にして投げ返す
    • 時系列/層別/主成分分析 などなど無数にある手法でグラフ化し、意味付きで投げ返す
    • 今後のデータを予測して精度とともに投げ返す

この中で2つ目を昨日は自動分析ツールかなぁという話までいった。

自動分析ツールで一回考えてみようか。

そのまますると月並み感が満載。

ターゲットはエクセルしか手元にない人、でいこうか。

いったんTableau使ってみなわからんかな。それは明日やってみるとして。

 

大量のデータ(〜10万)を集約して時系列にまとめてクラスター分析できるようにする程度のツールから入ろうか。

ほぼRの基本そのままやな。

 

付加価値は何があるか。どこが嬉しい?

ざっくりした(欠測値の多い)データでも判断してくれる。

最速で答えが出る(これは今のパソコンでこの情報量なら問題ないか・・・)。

xlsxファイルからボタン一つでグラフ化してくれる。

入出力周りの簡素化が差別化、か。

まずはシンプルイズベストで作ってみよう。

 

ここまでシンプルになったら絵はいらんな。

明日Tableauで遊んでみて、あとはUdemyを進めて、サンプルソフトでも作りにかかってみよう。

 

方針決定!

あと6日!

 

 

【データサイエンティスト021】サービスを絵にする③

データサイエンティストの本を参考に勉強しつつ2月中に何らかのサービスを出そうと奮闘?している連載。

本はこれ。 

改訂2版 データサイエンティスト養成読本 [プロになるためのデータ分析力が身につく! ] (Software Design plus)

改訂2版 データサイエンティスト養成読本 [プロになるためのデータ分析力が身につく! ] (Software Design plus)

 

 あとUdemyでも勉強開始しました。

www.udemy.com

非常に懇切丁寧で良い。よすぎる。

とはいえちょっと詰まったので今からやる人のためにも少しメモ。

できる人にとっては、フン!という感じだと思うので読み飛ばしてください。

・あれ、ターミナルのコマンドってなんやったっけ・・・?

→ターミナルとはパソコンのフォルダ(ディレクトリ)やファイルをコマンドでいじくるやつですね。詳細は下記にゆずろう。

今さら聞けない!ターミナルの使い方【初心者向け】 | TechAcademyマガジン

・そもそもAnacondaでちょっとけつまづいた、、、

→下をみてなんとかしてみました。

Anaconda で Python 環境をインストールする - Qiita

 

さて、もう3日目に突入したサービスを絵にするやつ。

昨日達したレベルはここ。

  • データベースの形を綺麗にして投げ返す
  • 時系列/層別/主成分分析 などなど無数にある手法でグラフ化し、意味付きで投げ返す
  • 今後のデータを予測して精度とともに投げ返す

ここでだれにどんな価値になるのか考えてみようか。

一つ目は、データサイエンティスト見習いくらいか。

教育は素人向けが一番いい(対象者が多い)という話もあるしナイスかな。
具体的にどんなサービスにするかが見えん。
定量的か定性的か、時系列か同時期の別要素比較か。。

 

二つ目は、自動分析ツールね。これは欲しい。ピボットテーブルさえ面倒な時があるし。ボタン一つで、的な。

ここの課題は知りたいことに突き刺さる分析をどう自動判別するかやな。

データセットの形から見極めるとナイス。でも変化が見えやすいようにしたいしな。

ピボットテーブルの下の表になる形式からあらゆるグラフがかけるマクロ的なのがあればいいのか。

 

三つ目は、外挿して試算するツールか。恐ろしいな。伸び率一定とかCAGRでいくとか方法はあるけど精度は神のみぞ知る世界。。ちょっと二の足を踏むところ。

 

うーん、今日はここまで。

あと7日!

【データサイエンティスト020】サービスを絵にする②

データサイエンティストの本を参考に勉強しつつ2月中に何らかのサービスを出そうと模索している連載。

本はこれね。

改訂2版 データサイエンティスト養成読本 [プロになるためのデータ分析力が身につく! ] (Software Design plus)

改訂2版 データサイエンティスト養成読本 [プロになるためのデータ分析力が身につく! ] (Software Design plus)

 

 さらにUdemy(ユーデミー)の下記サービスも取り組み始めた。

www.udemy.com

Pythonを使うための環境構築と使うとは?をやっているなう。

動画でわかりやすい。まだ最初やけど現時点でめちゃオススメ。

 

ということでそちらはそちらで進めるとしてサービスを何か絵にしてみる。

 

先日考えたのは下記の3つ

「データをファイルで受け渡ししなければならない場合の対応」

「データ分析上での間違いを判別」

「データ分析で適切な手法を選択」

これらはデータサイエンティスト(本物)の人のブログで困りごとを抽出したものやった。

本物が困っている内容をかじりたてフレッシュ!のサービスでなんとかしようということがおこがましすぎましたね。

できるならちゃっちゃと片付けてるでしょう、そのクラスの人なら。

はずかしい目標を立ててしまった。

 

ということでかじりたてでも、誰かの何かに貢献できるサービスを。

ターゲット層は「生データをゲットできる環境にあり、アウトプットイメージももてるが、工数上/ITスキル上自分の手で具現化できない」というところに定めてみよう。

ターゲット層の困りごとは「時間がない/エクセルでちまちまやるには時間がかかってしゃーない」ということだとする。

それをデータサイエンティスト的に解決するには、

・データベースの形を綺麗にして投げ返す

・時系列/層別/主成分分析 などなど無数にある手法でグラフ化し、意味付きで投げ返す

・今後のデータを予測して精度とともに投げ返す

の3つくらいか。

どれもまずは多少具体的になった。

反面、個別のデータじゃないと参考事例にならないね(特に1つ目の項目)。

 

図示までいたらず、、、。引き続きひねり出そう。

だんだん面白くなってきた!

残り8日!

【データサイエンティスト019】2.サービスを絵にする①

データサイエンティストの本を参考に勉強しつつ2月中に何らかのサービスを出そうと画策している連載。

その本とはこちら。

改訂2版 データサイエンティスト養成読本 [プロになるためのデータ分析力が身につく! ] (Software Design plus)

改訂2版 データサイエンティスト養成読本 [プロになるためのデータ分析力が身につく! ] (Software Design plus)

 

 

結構、意気揚々とスタートしましたが現時点でハードルの高さに打ちひしがれ、世間知らずさに赤面し、最先端からの遅れに遠い気持ちになっているなうです。

 

まぁ差がわかってきたということは成長してきているということで消し去りたい恥部もそのままに前へ進んでおります。

 

ということで何らかのサービスを考えようと。

どんな絵になるのかしら。

 

誰の何に貢献するか。

おととい考えた案は下記の3つ。

「データをファイルで受け渡ししなければならない場合の対応」

「データ分析上での間違いを判別」

「データ分析で適切な手法を選択」

まだまだあいまい過ぎてどうしようもないなぁ。

つっても中身もわからん。

 

うーん、完全に壁にぶち当たった。

 

果たしてとっかかりはどこにあるのか。

 

一旦昨日見つけたやつを更に進めて一周することを優先するか。。

あの講座をクリアすればPythonも一通りいけるようになるとのことやし(受講生の声から)、見える世界を変えに行こう。

 

あと9日。なんとかしてやるぜ。 

 

【データサイエンティスト018】凄いサービスを発見した

(旅でネット無し→風邪でダウンしてたので、携帯に書き溜めた分を19日にまとめてアップしてます)

 

データサイエンティストの本を参考に勉強しつつ2月中に何らかのサービスを出そうと画策している連載。

 

実は、今まで色んな本やサイトを齧ってきたけどなかなか自分で取り組んでおらず身になっていない。

データサイエンティスト系なら3冊、

R関係なら5冊前後かな(Rは、かれこれ5年くらいは遊び程度にやったりやらんかったり)。

 

ところが、

NewsPicksというニュースアプリを眺めていたら

UdemyというC2Cの教育サイトで

今の俺のニーズ(スキル側)にどんぴしゃの講座を発見した。

 

しかもNewsPicks限定の破格で。

通常12,000円がなんと・・・!

ちょっと迷惑になるかも?なんで一旦額は書かないでおこう。

www.udemy.com

NewsPicksやってる人は探してみて下さい。

全講座が驚きの均一価格です。

たとえて言うなら立ち飲み屋で90分飲んだ位の額。

 

早速この記事連載は続けながらも、このプログラムにおんぶにだっこで技術面を深めてみる。

 

今日は紹介のみ。

 

良かったらぜひ!

【データサイエンティスト017】1.ビジネスモデル考える

(旅でネット無し→風邪でダウンしてたので、携帯に書き溜めた分を19日にまとめてアップしてます)

 

データサイエンティストの本を参考に勉強しつつ2月中に何らかのサービスを出そうと画策しているブログ。

 

ちょっと苦戦中ですが2月末までにやりきってみる。

残りやることは5つ。

1.ビジネスモデル考える

2.サービスを絵にする

3.ゴリゴリプログラム書く

4.デバッグする

5.販売サイト作る

これらを実質10日でやりきろうとしています。

できりゃ苦労しねーよ、ですが、苦労してやりきってみようと。

 

ということで今日は

1.ビジネスモデル考える

でいきます。

今日から1日1つで5日間やってみて様子見で。

 

ということで。

ビジネスモデル考えるって難しいね。

今バリバリの上司から日々仕込まれていることは

 ・商売は「商品力」「値段」「サービス(配達の迅速さとか受付のホスピタリティとか店舗のアクセス性とか問い合わせ窓口の利便性とかの全てを含む広義のサービス性)」 のいずれかで尖がっている必要がある

ということなのでこの切り口で進めてみる。

 

商品力:ビジネス上の課題が短時間で解決できる

値段:一旦置いておこう

サービス:問い合わせがあった際にすぐ対応できる/ソフトのヘルプが充実/ソースコードの可読性が高い

 

うーん、商品力を分解するしかなさそうやな。

競合も知らずに突っ込んでるのがデスマーチ感やばいけど。

一旦ぐぐるか。

tjo.hatenablog.com

うーん、2013年11月に上記のブログを書かれている方がいるね。

3年以上前か。頭痛くなって恥ずかしさのあまり顔が熱くなってきたアルよ。

 

いいや、一度晒した恥部を隠すという恥の上塗りはしまい。

 

レッドオーシャンに突入になるけど心が折れるということはみんなも心が折れるということでこの壁を一度乗り越えてみてから考えよう。

 

ということで欲しいサービスとしては上記のブログを読むと

「データをファイルで受け渡ししなければならない場合の対応」

「データ分析上での間違いを判別」

「データ分析で適切な手法を選択」

かな。

この3つを軸に検討してみよう。

 

明日は

2.サービスを絵にする

で。