学習方法

メンター情報

料金

対応時間帯

返信スピード

学習方法

メンター情報

料金

対応時間帯

返信スピード

M.Kushida@日本1正直なメンター
メンター
M.Kushida@日本1正直なメンター
763
メンタースコア
5.0

評価

0

契約中

5

累計

8 フォロワー
本人確認
NDA(機密保持契約)
自己紹介

上流から下流まで一貫して対応できるデータサイエンティスト・データアナリスト・データエンジニア・コンサルタントなどデータのなんでも屋さんです。
未経験・初心者の方大歓迎ですが、現場目線で正直になんでもズバズバお伝えします。
心構えなども知りたい、鍛えたい、そういう方歓迎です。ビジネスパーソンとして現場目線のような形で接することを心がけておりますし、そういう風な方歓迎です。
ただよくあるエンジニアみたいに、「そんなことも知らねえのかよ」みたいな頭ごなしな否定はしないように心がけています。

■相談前の注意(心構え)
正直データサイエンティストというかっこいい言葉に踊らされないほうがいいです。データサイエンティストはかっこよくもなんでもありません、泥臭い仕事のほうが多いです。夢を見るより現実見る人のほうが仕事をしやすい仕事になります。
それでもデータサイエンティストになりたい覚悟がある方、ぜひご相談してきてください。

■スキル
・SQL(MySQL, SQLServer, BigQuery, Athena, Snowflake)の経験有。(6年)
・SPSS ModelerやExcel、Exploratoryでの多変量解析の経験有。(2年)
・BIツール(LaKeel BI, Jasper, Google Data Portal, Quicksight, Re:dash, Tableau, Looker)での
ダッシュボード開発やテスト経験有。(4年)
・Google Cloud Platform, Amazon Web Service上でのデータ分析基盤の構築・運用に携わった経験有。(2年)
・KH Coderでの言語処理ツールを用いた分析の経験有。
・R言語やPythonで統計解析処理の開発経験有。(2年) R言語でWebアプリケーション(RShiny)の開発経験有。
また、大学時代に統計学を専攻していたため、統計の知識有(多変量解析レベル)。
・ETL(Talend, AWS Glue)ツールやPython(Airflow, Pandas)でのデータ加工・抽出の経験有。(3年)
・その他Java, C, HTML, CSS, Python, Rなどの言語経験有。(3年)

スキル
AWS 〜3年
Python 〜3年
SQL 5年〜
GCP 〜3年
BigQuery 〜3年
MySQL 〜3年
DataVisualization 〜5年
R言語 〜3年
SQLServer 〜1年
Tableau 半年未満
Redash 〜1年
SPSS 〜3年
ETL 〜3年
Looker Portal 〜3年
Data Portal 〜3年
Athena 半年未満
KH Coder 半年未満
Talend 〜3年
経歴・実績
2016 年 4月 〜 2018 年 3月
株式会社レジェンド・アプリケーションズ(現:株式会社ラキール)
【所属部門】 プロダクト開発本部LaKeelBI開発G /コンサルティングG
【研修内容】
・基礎的なビジネススキル
・Web開発の基本的な技術(Java, HTML5, CSS3など)
・自社製品LaKeel BIによる開発の基礎(DB設計、帳票作成、ダッシュボード作成)
【担当職務】 BIツール開発
・帳票の色反映テスト
・帳票のパフォーマンステスト
・データソースからテーブルを定義するドメインのXML改修
・タブレット閲覧用クラウドサービスのお気に入り機能Moc作成及びDB設計
【担当職務】 BIツールテクニカルカスタマーサポート
・顧客へ製品の初期導入及びバージョンアップ導入(新規・既存顧客)
・カスタマーサポートの新システム移行プロジェクト(メールベース→Webベース)
・営業支援(トライアル導入・製品説明)
【工夫したこと・実績など】
・お客様に安心して使っていただくための導入や顧客1人1人に合わせたサポート及び使い方の提案を行ってまいりました。その結果、テクニカルサポートにも関わらず、5社のお客様からお褒めの言葉を頂くことができました。
・導入も普通の導入だけでなく、新しい機能の導入や新しい環境での導入(オンプレが通常だがAWSでの導入)を一人で任され、見事成功することができました。
・トラブルがあった際は、副社長や部長などの重役も巻き込み、見事トラブルの解消に成功しました。
・個々人の業務の可視化や業務の効率化を図るために、問合せシステムに優先順位をつける仕組みや、個々人が業務を細かく報連相できる仕組みを作ったりしました。
【担当職務】プリセールス 兼 開発 兼 統計解析の提案
・本当の意味でのBI製品へ成長させるためのソリューションを発案及びR言語を中心とした開発
・BIツールのプリセールス
・学生時代に多変量解析による新商品・サービスの提案の研究を行っていた経験を活かし、自分を中心として全社的にデータサイエンティストとしてのスキルを上げる活動を行う
【工夫したこと・実績など】
・プリセールス兼開発兼統計解析の提案者として、自社製品のビジネスインテリジェンスツールを本当の意味でのビジネスインテリジェンスツールとして発展させるための使い方を提案・開発を行って、社長プレゼンも行いました。
2018 年 4月 〜 2019 年 2月
澪標アナリティクス株式会社
【所属部門】アナリスト
【研修内容】
・BigQueryでのデータ抽出の技術(BigQuery)
・多変量解析の基本的な技術(SPSS)
・多変量解析の基礎的な知識(K-meansによるクラスタリング、決定木分析、SVM、クロス集計など)
・ゲーム分析の基礎的な知識(ゲームサイクル・KPIの理解)
【担当職務】アナリスト
・新規・既存顧客に対してビジネス課題を解決するための分析コンサルティングのサービスの提案や自動分析の提案
・ビッグデータを多変量解析してソーシャルゲーム運営の課題点の洗い出し~施策提案のコンサルティング
【工夫したこと・実績など】
・ビッグデータを多変量解析してソーシャルゲーム運営の課題点の洗い出し~施策提案のコンサルティングを行ってまいりました。その際には統計分析における上流から下流の工程をほぼ1人で一貫して行っており、お客様のPDCAを回すお手伝いをしていました。課題の洗い出しや施策提案をするために、お客様のサービスを隅から隅まで利用して、そこで感じた課題点などをお客様(プロデューサーやディレクター)とディスカッションしながら課題を洗い出していました。その結果、1年はサービスが続けばいいと言われるソーシャルゲームの業界において、3年以上タイトルを続けるような仕組みを作ることができました。
・新規・既存顧客に対してビジネス課題を解決するための分析コンサルティングのサービスの提案や自動分析の提案も行ってまいりました。その結果、1件受注しました。
2019 年 3月 〜 2019 年 10月
株式会社モブキャストゲームス
【所属部門】パブリッシング本部 システム開発部 分析チーム
【担当職務】アナリスト
・ソーシャルゲームのKPI集計(BigQuery、Excel、Re:dash、Google Data Portal)
・ビッグデータを多変量解析してソーシャルゲーム運営の課題点の洗い出し(SPSS)
【担当職務】アナリスト兼チームリーダー
<アナリストとして>
・ソーシャルゲームのKPI集計(BigQuery、Excel、SPSS)
・ビッグデータを多変量解析してソーシャルゲーム運営の課題点の洗い出し(SPSS)
・広告データをマーケティングで活用するためにBIツールで可視化
→「データ抽出→データレイクの構築→データ加工→データ可視化」フローを一貫して構築(AWS S3→AWS Glue→AWS Athena→Quicksight)
<リーダーとして>
・データ集計・分析未経験のメンバーの育成やメンバーの管理
・依頼の窓口を設けたり、依頼のフローを依頼する理由やその結果をどの施策として活用したりするかを定式化
【工夫したこと・実績など】
・OB中心の野球ゲームと現役選手中心の野球ゲームの両方のデータ分析を行っていました。野球は元々好きでしたが、これ以上に理解を深めようと現役OB問わずたくさんの選手の経歴などを調べて、またそれぞれの指標が何を表すのかも勉強して、野球そのものの理解を深めた上で野球ゲームのデータ分析を基に施策提案なども行ったりしました。
・分析チームのリーダーとしてデータ集計・分析未経験のメンバーの育成やメンバーの管理も行っておりました。また、分析チームの立ち位置や意味が組織として曖昧であったのを、依頼の窓口を設けたり、依頼のフローを依頼する理由やその結果をどの施策として活用するかを定式化したりすることによって、分析チームの立ち位置をはっきりするようになり、より分析がPDCAを回す上で重要であるということに関わる人全てに認識させるようにしました。
・広告データをマーケティングで活用するためにBIツールで可視化を行いました。その際に、ツールの選定及び検証は私中心にマーケティングチームとシステム開発チームを巻き込んで、データ抽出→データレイクの構築→データ加工→データ可視化のフローを一貫して構築しました。(すべてAWS上のサービスで完結させる予定で検討していました)
2019 年 11月 〜 2020 年 2月
株式会社インテック(派遣先 産業技術総合研究所)
【担当職務】エンジニア
・テストツールを用いたCADオペレーターの行動可視化および自動化の検証、研究(Python)
2020 年 3月 〜 2021 年 8月
株式会社データフォーシーズ データサイエンティスト
【担当職務】データサイエンティスト
【担当業界】自動車業界
【プロジェクト】①IoTデータのクラウド化 ②販社マーケティング向けの可視化
【仕事内容】
・データ抽出・加工・集計(SQLSever、BigQuery)
・データベースの移管・構築(SQLServer→BigQuery)
・GCP上でのサーバー環境構築(Compute Engine)
・RでのWebアプリケーション開発(RShiny)
・Google Data Portalでのダッシュボード開発(IoTデータ(GPS情報)の可視化)
【工夫したこと・実績など】
・当初プロジェクト先は炎上しておりましたが、私のこれまでの経験と知識を生かし、お客様やメンバーにオンプレからGCPにデータを移行する方法を自ら教えながら移行をしたところ、止まっていたプロジェクトが動き出すようになり、お客様や常駐先に直々に感謝されました。
・上記の実績もあり、同じお客様で別案件も受注することができました。
【担当業界】飲食業界
【プロジェクト】顧客離反の原因分析の提案
【仕事内容】
・Pythonでのスクレイピング(Selenium)や時系列データ予測(Prophet)
【工夫したこと・実績など】
・自分が勉強したスクレイピングの知識を活かして、Twitterでの口コミ分析もできることを提案することができました。
【担当業界】アパレル業界
【プロジェクト】アパレル業界のDX化
・データ抽出・加工・集計(BigQuery)
・Airflowを用いたデータのETL機能開発・修正・運用保守
・Cloud Composerのバージョンアップ
・Google Data Portalでのダッシュボード開発・修正(アンケートデータ、SNSデータ、売上・在庫データの可視化)
【工夫したこと・実績など】
・POSデータやアンケートデータ、SNSのデータなどのデータ抽出や集計、AirflowでのETL構築、Google Data Portalでのダッシュボードの開発・修正を行っておりました。
・運用保守がデータフォーシーズとお客様ではない別会社が行っていて、別会社との連携が上手く取れていなかったため、連携を自ら積極的に取ったところ、連携がスムーズにいくようになりました。
・また別会社がメインにやっていた運用保守を、こちらが丁寧にタスクをこなした結果、こちらがメインで運用保守を持つことができるようになり、by nameでお客様からお褒めの言葉を頂き信頼を得ることができるようになりました。
2021 年 2月 〜 2022 年 4月
個人事業主 データサイエンティスト・コンサルタントなど
以下の取引先と業務をおこなっておりました。
〇Accent Business Consulting
・某携帯会社の決済サービスのキャンペーンの約1000万人レベルの顧客リストを漏れのないよう堅牢に抽出を行ったり、キャンペーンの効果測定をTableauとSASとPythonとExcelを駆使して行ったりしました。プロジェクトは成功し、顧客に感謝されました。
〇OPSION
・約半年にわたり、1人で0→1でGCPやGoogle Data Portalを用いて分析基盤の構築を行いました。1人で顧客折衝や分析基盤の設計などをすべて行いました。
・分析基盤を作り上げたら、ロイヤリティ顧客の分析を相関分析を使って行いました。
○POPCHAT
・Redshift上にあるWi-fiデータを使用して、競輪場のサービス改善に活かすダッシュボード開発をQuicksightを用いて行っておりました。チームリーダーとして、作業内容の割り振りとマネジメント、顧客折衝を行いました。
〇Dプロフェッションズ
・スポットでRShinyでの広告費を算出するダッシュボードの開発を行いました。こちらもチームリーダーとして、作業内容の割り振りとマネジメント、顧客折衝を行いました。
〇AGプラス
・大手不動産会社のDX化に向けて、様々なデータを精査したり分析をExploratoryというツールを使って行ったりし、その結果を用いたコンサルティングをアクセンチュア出身のコンサルタントとチームを組んで行ったりしていました。
〇route13
・中小企業デジタル化応援隊のIT専門家として、データアナリストの視点からYouTubeアナリティクスの使い方や動画データの解釈や施策案などのコンサルティングを行いました。
〇LABOT
プログラミングのコーチとして以下のお客様のコーチングを行っておりました。
・パチンコの台の予測データを載せるWebアプリケーションを行うために、Python, HTML, CSS, JavaScript, DB(SQL)をコーチング
・受験のためにデータサイエンスやAIとは何かを知って地方創生の課題について小論文を書くために実際の現場のデータサイエンスをディスカッションして合格に導くため&未来のデータサイエンティストを育成するためのコーチング
○日本コカ・コーラ
・AWSをクラウド基盤として、Snowflakeで分析基盤の構築を行っておりました。
【工夫したこと・実績など】
・とにかく顧客第一に親身に寄り添う前提で、かならず受注する前に対面でしっかりとお客様と対話する時間を設け、受注につなげていました。その結果、2021年7月には売上100万円を突破することができ、受注に利用していたランサーズでは認定ランサーにまで上り詰めることができました。
・チームマネジメントも経験し、そこでは未経験の人材を育成も兼ねて、ビジネスでお客様の納期と品質を保つことを優先しながら、個人の意欲と適正に応じた作業の割り振りを行ってマネジメントを行っておりました。その結果、今までコンペデータなどでしか分析をしてこなかった人材に対して、生の顧客データを活用する成果物を出すというところまで成長させることができました。
2022 年 5月 〜 2022 年 12月
Modis株式会社(派遣先 KDDI株式会社)
【所属部門】人事本部 人事企画部 ピープルアナリティクスG
【担当職務】データエンジニア
・人事データのデータレイク運用を定式化するための要件検討・開発などの分析基盤構築(AWS, Python)
・人事データの集計およびレポーティング(Python、Excel)
【工夫したこと・実績など】
・人事データという非常に機微なデータを扱う都合上、ルール化されずに好き勝手やっていた分析環境を一つ一つロジカルな理由をつけて要件を整理し、今後の運用も考えて丁寧なドキュメント化を行ってまいりました。
・前処理も分析官が各々行っている状態だったので、実質ETL処理の部分はすべて自分が構築し、bat処理だけでpyファイルを呼び出して処理し、分析で使いやすい状態にすることができ、人事本部が課題に掲げている効率化に成功しました。
対応可能な時間帯
平日朝 平日夜 土曜日 日曜日
返信スピード
2〜3日以内
備考

GCPとGoogleのツールのみでスクレイピングでデータ収集するところから可視化するまでの一貫したシステムを構築したことがあります。
最終的にはこういったアウトプットが出せて、かつこういうのを基にビジネス示唆を出せてPDCAを回せるようなデータアナリストの育成を考えております。
https://datastudio.google.com/reporting/b471c53c-165e-422e-9e17-07f7466797f5/page/p_jr2hyjgwnc