技術の無駄遣いブログ。

基本やる気が無い。

妖怪Beacon作ってみた。

きっかけ

研究でibeacon使う雰囲気があるのでちょっぴりibeacon入門してみた。

内容

  1. beaconを妖怪にセット

  2. アプリを起動し妖怪をスキャン

  3. しょうか〜ん♪

とりあえずこちらを御覧ください


妖怪ビーコン作ってみた。 - YouTube

材料

  • ibeacon

Aplix社

妖怪ウォッチ BIGり! ジバニャン

感想

  • 意外と簡単!

  • けどObjectiveCはやっぱ謎 なんとなくで書いてる感が...

  • 夢広がりんぐ!

参考サイト

[iOS8]UILocalNotificationでiBeaconの領域検知&通知アクション - Qiita

Objective-C:オブジェクトを点滅アニメーションさせる | siro:chro

github

okunoryo/yokaiBeacon · GitHub

【ほぼ完成?】全自動!顔面偏差値解析くん

昨日の機械学習ワークショップの影響で実際に自分でなにか作ってみたいと思い今日丸一日使って開発しました。

過去記事はこちら

機械学習入門ワークショップ行ってきた - 食欲、物欲、ものづくり欲。

顔面偏差値解析プログラム

背景

ディープラーニングのAPIでなにかおもしろいもの作りたい。

サンプルのプログラムをいじっていろいろしていたら、ある機能が目に止まった!

beauty?

顔の綺麗さがどうやら検出できいるらしい!

そういえば”顔面偏差値”の話題がよく出るけど人によって評価はばらばら--;

2chでも顔面偏差値◯◯ってこれくらいだよな?みたいなスレをよく見かける。

機会学習を使って客観的な顔面偏差値を出してみよう!

私の大学は美男美女が多いと言われている(※都会のキャンパスonly)

じゃあサークルごとの集合写真を解析してサークルの偏差値出せるんでね?

ということを妄想しながら作りました。

機能

  • 個人だけでな団体の平均顔面偏差値を知ることができる。(新規性?w)

  • リアルなデータを使った偏差値換算 実際に解析で得たデータを元に偏差値を計算しています。これ一番苦労しました。

フロー

  1. 画像読み込み

  2. APIから結果取得

  3. 結果をCSVに書き出し

  4. 結果を元に偏差値換算


実際こんな感じ

解析したい画像のURLをコピー

今回はこの画像で! http://livedoor.blogimg.jp/wai1111/imgs/1/e/1e3106c5-s.jpg

プログラムを起動し説明にそってURLとグループ名を入力!

f:id:okuno411:20150121014924p:plain

待つこと数秒...

f:id:okuno411:20150121015030p:plain

結果が出力されます。

上から

  • 検出された個人の解析結果

  • グループ全体の結果

  • 偏差値

となっています。

demoムービー

顔面偏差値解析プログラム - YouTube


webサービス

実行画面

名前と画像のURLを入力

f:id:okuno411:20150203101409p:plain

結果表示

f:id:okuno411:20150203101958p:plain

サーバー側の処理

f:id:okuno411:20150203102048p:plain

デザインは全くいじってません...

フレームワーク:bottle (Python)

flask,Djangoなど有りましたがはじめてなので一番簡単そうなのを選択

サーバー:AWS

デプロイは少し苦戦しています。

感想(問題点)

  • イケメンばっか分析にかけてるせいで偏差値が低く出る。
  • デプロイ方法がいまいち不明

理想

  • ツイッターで写真投稿を行い解析を行う
  • 複数人の平均偏差値を出せるのでジャンル分けをして偏差値を出す(サークルなど)

おまけ

ミスコンのサイトから大学ごとのエントリー者の画像をスクレイピングし平均スコアを出しました。

使用技術:BeautifulSOUP

Beautiful Soup: We called him Tortoise because he taught us.

MISS COLLE ミスコレ | ミスコン・ミスキャンに特化したポータルサイト

f:id:okuno411:20150203103108p:plain

これで機械が判断した各大学の顔面偏差値を分析知りことが可能に!

※ ミスターにも対応

問題点

ミスコンはスコアが前提的に高すぎる...


okunoryo/Practice_MachineLeaning · GitHub

機械学習入門ワークショップ行ってきた

Life is tech! という企業主催の機械学習入門ワークショップに行ってきました。

【1月19日(月)】機械学習入門ワークショップpresented by Life is Tech! | ITクリエイターのためのコミュニティースペース - TECH LAB PAAK

日程

2015/01/19 19:00~22:00

内容

  1. 機械学習について

  2. 実際に使ってみる

RekognitionというディープラーニングのAPIを使いました。

orbe.us | ReKognition - Welcome to Rekognition.com

実際にやったこと

大きく3つあります

1. 画像から物の種類を判定

画像からjsonで結果が帰ってくる

f:id:okuno411:20150119230334j:plain

f:id:okuno411:20150119224735p:plain

2. 画像から人物を検出

性別、年齢、感情、綺麗さ、人種などを判定

今話題のつまようじの人 ↓

f:id:okuno411:20150119230441j:plain

結果

f:id:okuno411:20150119225027p:plain

3. 画像を学習させて類似度を算出

手順1 画像を読み込む(学習)

手順2 他の画像と比較し類似度を検出

実際にはSMAPの5人の画像を学習させてつまようじの人の画像と比較を行いました。

f:id:okuno411:20150119230057j:plain

結果

f:id:okuno411:20150119225227p:plain

どうやら中居くんに似ているようです  

感想

機械学習は前から気になってたけど、使ってみると精度の高さに驚きました。今回使用したAPIは様々なプラットフォームに対応しているのでiosとかでもぜひ使ってみたい。できればHowOldMeに学習機能をつけてみたい。 機械学習アルゴリズムを理解するにはあと100年はかかりそうです...

GitHub

okunoryo/Practice_MachineLeaning · GitHub

【駅伝優勝】青学カレー食べ比べてみた。

たまには技術系以外のことを書きたいと思います!
 
 
最近駅伝優勝で湧いている青山学院(渋谷のキャンパスのみ)
 
ずっと気になってた購買会で売っている青学カレー買ってみました。
 
これは完全にオープンキャンパス向けの商品で普通の青学生に取ってはどうでもいいものです。

 

 

しかし、青学生なら誰もが気になるはず!

 
 
ということで実際に学食のカレーと食べ比べしてみました!!!
 
f:id:okuno411:20150109010353j:plain
 
まずは購買でカレー(400円)を購入。
 


...。高い。



 
学食なら270円で食べれるのに。
 
 
そして食券を購入
 
* カレー(270円)
* ライス単品(100円)
 
そして青学カレー400円!合計770円!
 
 
高い...
 
 
f:id:okuno411:20150109010437j:plain
 
これを持っていった時にカレー大盛りと勘違いされかけて焦りました^^;
 
 

 到着!

 
f:id:okuno411:20150109010451j:plain
 
さてカレー作りますか!
 
f:id:okuno411:20150109010507j:plain
 
 

レトルトパックを開けてルー盛ってレンジでチン!

 
。。。カレーが決壊しました!笑
 

 

 

 
左:学食 右:青学カレー
f:id:okuno411:20150109010526j:plain
 


まず色がぜんぜん違う。
 
そして肉が違う。

 
 
学食はポークカレー
 
青学カレーはチキン
 
 
 
はい。これミスですね。

 
 学食カレー¥270
f:id:okuno411:20150109010543j:plain

青学カレー¥400+100
f:id:okuno411:20150109010610j:plain
 




 いざ食す!



…んん?



 
結果は?







 
 

 青学カレーの勝利!!







 
青学カレーのほうがいい感じに甘いです!



 
しかしこれは学食のカレーがチキンだったら話しが別かもしれません。
 
カレー2杯きちんと完食しましたとさ。
 
f:id:okuno411:20150109010644j:plain
 




以上です!

 
人目が気にならなくて金に余裕がある方はぜひチャレンジしてみてください!
 








 
最後に一言。

 






 

500円出してまで食べる価値はない。

【続】傷つけずに年齢を知らせるアプリ作ってみた。後編

前編はこちら

傷つけずに年齢を知らせるアプリ作ってみた。前編 - 食欲、物欲、ものづくり欲。

23日のミートアップイベントに向けてHowOldMeのアップデートを行いました。

Fab Meetup vol.13 - Sensing Holy Night -

アップデート内容

  • 画像表示
  • ソーシャル連携
  • 接続時のデザイン変更
  • 起動画面の変更

画像表示

指定されたURLから画像取得

f:id:okuno411:20141221215109p:plain

ソーシャル連携

診断結果をツイートできるようにしました

f:id:okuno411:20141221215142p:plain

ツイート内容

接続時のデザイン変更

iPhoneのアイコンつけました

f:id:okuno411:20141221215222p:plain

起動画面の変更

公式から画像ひっぱってきました

f:id:okuno411:20141221215352p:plain

発表資料

※ 当日は使いませんでした

GitHub

okunoryo/HVC-C-HowOldMe · GitHub


 追記

2015/01/09

アプリ申請出しました。

2日くらい格闘していましたがようやく申請が出せました。

初めてってこともあってかなり苦労しました。(謎のエラーにより)

まあリジェクトされるのが楽しみです...

人生初3Dプリンタ

大学内に3Dプリンタ(6万ちょい)があるということで早速トライしてきました!!!
 
 
がしかし!!!
 
理想
3Dプリンタ=夢のマシン
 
現実
3Dプリンタ=ゴミ製造マシン
 
自分のなかでそのような認識になりました、、、
 
その様子を御覧ください。
 
f:id:okuno411:20141221014531j:plainf:id:okuno411:20141221014510j:plainf:id:okuno411:20141221014453j:plainf:id:okuno411:20141221014432j:plainf:id:okuno411:20141221014414j:plainf:id:okuno411:20141221014359j:plainf:id:okuno411:20141221014346j:plainf:id:okuno411:20141221014329j:plainf:id:okuno411:20141221014226j:plainf:id:okuno411:20141221014314j:plain
f:id:okuno411:20141221014253j:plain
 
初3Dプリンタは大失敗でしたがその後3Dプリンタを買った教授の話によると
 
やり方が間違っているらしいです...
 
そのうちもう一度チャレンジ!!!!

【製作日記】Oculusじゅうたんプロジェクト

f:id:okuno411:20141221013708j:plain

きっかけ

Oculus流行っているし何か作ってみよう。

せっかくなので他のデバイスと連携したいね。

そんなこんなで魔法のじゅうたん作るようになりました。

使用技術

  • Unity
  • KINECT(コントロール)
  • Arduino(外部デバイスの制御)
  • Oculus

予定

  1. ステージ作成(unity)
  2. oculusで書き出し
  3. kinectで操作
  4. arduinoと連携

現在の進捗

  1. ステージ作成(12月〜)
  2. oculusで書き出し(12/20)

Watch ryo's Vine "じゅうたんとoculus連携できた! そして酔った… つらい。"

2014/12/21

本日の結果

  • コントロール調整
  • BGM取り付け

問題点

  • OVRCameraRigつかうと動きが重くなる
  • 物体を通り抜ける(透ける)
  • gitの操作でつまずく

感想

Oculusの連携が 一日で出来てしまって驚きです。

2015/01/09

本日の結果

  • kinectの連携
  • oculusと合わせる

Watch ryo's Vine "kinect oculus連携"

わかりづらいのですが頭の位置を横にずらすと絨緞が少し移動します。

ここではkinectで人の頭の位置とお腹の中心を取得しその傾き度合いを使います。

問題点

kinectの視点操作とoculusの視点操作がぶつかって変な挙動をする ・kinectの操作がいまいち正確でない

感想

kinectも無事連携できて感動です。kinectとoculusを同時に接続すると配線が大変なことになりますね。

後は動作を改善してarduinoとの連携です。

2015/02/23

本日の結果

  • kinectで上下左右の実装

  • じゅうたんにミクをのせる

感想

一応ひと通りの技術はできるとこまでやったので一旦開発を終了したいと思います。

次はイベントなどに出す際に完成度を高めていこうかと思います。

お疲れ様でした。