元茹でガエルなエンジニアの記録

ちょっとやってみたことや考えたことなどを不定期に書き残していきます

Amazon Echoがやってきた(前編)

f:id:jiig999:20171116201731j:image

11/8にAmazon.comAmazon Echoシリーズの招待メール申込みが始まりました。私も、アメリカで買ったEcho dotを持っているけど、あれは遊び用なので、ちゃんと家に置いて使う用に、即日申込みました。

Echo dotとノーマルEchoを申し込みましたが、11/13の週になってもメールはこず、まだかまだかとメールやらサイトやらをチェックする日々。

11/15にいよいよ招待メールが来たというツイートが出始め、そわそわして待っていましたが、結局来ず。。。しかーし、どうやら15日はdotの招待メールのみのようで、複数申込みした場合、どれか1つだけしか招待メールが来ないということのようです(これは、最初は、ということだと思います。落ち着いたら順次全ての申込みに対応がされると思います)。

と、いうことは、15日にメール来なかった私は、きっとdotではなく本命のノーマルechoの権利を得たのだと自分に言い聞かせていました。

 

そして、夕方の16時を過ぎた頃、ついにメールが!!

来ましたー。echoの招待メールです!

f:id:jiig999:20171116200459p:image

 

ソッコーで迷わずポチッとな。明日のお届け予定です、とあるので楽しみです。

 まあ、仕事なので受け取れるのは結局土曜日になりそうですが。

週末はAmazon Echoとおしゃべりですね。

 

 

Amazon Echo (Newモデル)、チャコール (ファブリック)

Amazon Echo (Newモデル)、チャコール (ファブリック)

 
Amazon Echo Dot (Newモデル)、ブラック

Amazon Echo Dot (Newモデル)、ブラック

 

 

 

Alexa Skill KitでAmazonEchoのスキルを自作する方法(2)

Alexa Skill KitでAmazonEchoのスキルを自作する方法(1)の続きになります。

redorereadblog.hatenablog.jp

 

だらだら書いているうちに、日本語スキル開発環境がリリースされてしまい、そちらの記事を書こうとしています。

なので、この記事は少し中途半端でインテントのSlotとLambdaには触れていません。。(言い訳) 

スキル作成の続き

 Intentとその発話サンプルをひととおり登録し終えたら、画面上部の[Build Model]をクリックし、入力した情報で対話モデルをビルドします。この処理は少し時間がかかります。ビルド処理はバックグラウンドで実行されるので、[Configuration]をクリックして設定画面に移動します。

すでにconfiguration画面で設定ができている場合は、ここから[Test]でスキルのテスト画面に移動することも出来ます。

f:id:jiig999:20171114163229p:plain

 

 

[Configuration]をクリックすると、Builderが終了してもとの画面のUIに戻ります。いずれは、設定やテストなどすべてBuilderのUIに統合されるのだと思いますが、今は対話モデル作成部分のみがベータ版として対応しているようです。

ここでは、Alexaから処理要求を受け取り具体的なスキルを実装するLambdaのARNを指定します。先にLambdaファンクションを作成しておき、そのARNを指定することになります。スキル本体の処理は、Lambdaを使わず自分でスクラッチしても良いです。その場合は[HTTPS]にチェックを入れ、エンドポイントを入力します。

その他の項目はデフォルトのまま[次へ]をクリックします。

f:id:jiig999:20171114163309p:plain

 

 

LambdaのARNなどのチェックが行われ、エラーが無ければこの画面に遷移します。

スキル情報〜テストまでの4つにグリーンチェックが入っていれば、スキルがテスト実行可能です。この時点で、Amazon Developerと同じアカウントを使っているEcho端末からもテストが可能です。公開するまでは、他のユーザーアカウントから呼び出すことはできません。

f:id:jiig999:20171114164505p:plain

 

 

画面中ほどに、サービスシミュレーターがあります。EchoやEchosim.ioからもテストできますが、この画面からだとしゃべるかわりに、文字を入力してテスト実行できます。

Alexa Skill Testing Tool - Echosim.io

 

発音の認識間違いなどに苦労せずにすむので、まずはこの画面からテストすることをおすすめします。

しゃべる内容を文字で入力し、XXXを呼び出すボタンをクリックすると、Alexaと会話したことになって処理が実行されます。

左下に、Alexaからスキルへのリクエスト内容が、右下にはスキルからのレスポンスが表示されるので、うまく動かないときはここを見ると良いです。

f:id:jiig999:20171114164517p:plain

 

上の例では「i wanna start meeting」と入力してみました。実はIntent作成時のサンプル発話としては登録していない表現ですが、Alexaがよきにはからってくれて、ちゃんと"StartMeetingIntent"と判定されています。

  

まとめ

今回はスキル本体となるLambdaと、IntentのSlotについてはすっ飛ばしました。すみません。

Intentのサンプル発話をどれだけ網羅して設定しておく必要があるかは、正直なんとも言えません。Alexaはどんどん賢くなっているので、わりと適当に設定しても大丈夫な気がします。少なめに定義しておいて、うまく意図解釈してくれない(=Intent判定を誤る)ときに追加していけば良いかなぁという印象です。

 

Nature Remoが帰ってきたのでセットアップした

おかえり

過去記事で書いていましたが、購入した2台のRemoを湿度センサーの初期不良で返送していました。 部品交換ではなく、新品が2台届いたので改めてセットアップしました。

redorereadblog.hatenablog.jp

2台とも新品に。以前のものは箱に英語しか書いていませんでしたが、今回は日本向け正式販売が開始されたこともあって日本語で記載されていますね。

f:id:jiig999:20171112232707j:plain f:id:jiig999:20171112232853j:plain:w400

改めて開封の儀

付属品たち。クラウドファンディングで買ったときは各国の規格に合わせて電源プラグがたくさんついていましたが、今回は日本向けの形状のみです。

f:id:jiig999:20171112232905j:plain

本体アップで撮影。Natureのロゴがシンプルに刻印されています。 前身であるIRKitと違い、プロダクトとして十分な質感に仕上がっています。笑。

f:id:jiig999:20171112232915j:plain:w400

セットアップ

Remoの設定

Remoがひとつも登録されていない状態でアプリを起動すると、セットアップチュートリアルが開始されます。 まずは、電源ケーブルをつなぐように言われます。

f:id:jiig999:20171112232934j:plain:w300

次に、Remo自身のWi-Fiに接続するように言われます。普通にWiFi接続する手順でスマホの設定画面からRemoのネットワークを選んで接続します。 パスワードは「natureremo」固定です。私はiPhoneなのですが、もしかするとAndroidだとWiFi設定の切り替えはアプリが自動でやってくれるのかもしれません。iPhoneではアプリからのWiFi設定変更は許可されていませんが、Androidアプリでは可能だった記憶があります。 f:id:jiig999:20171112233910j:plain:w300

RemoのWiFiにつないでアプリ画面に戻ると、付近のWiFiサーチ処理が始まります。

f:id:jiig999:20171112233928j:plain:w300

Remoが使用するWiFiを選んで、パスワードを入力します。以後、RemoはこのWiFiを使ってネットワーク接続を行うようになります。

f:id:jiig999:20171112234609j:plain:w300

ここまで来たら、Remoにタッチするように言われるので、タッチします。Remo本体の上面にはタッチセンサーが搭載されていて、ユーザーのタッチを検出できるようになっています。 これはよく出来ているなと思いました。RemoのWiFi設定を変更しようと思うと、物理的に手で触れる場所にいないとダメということでセキュリティが高まります。

f:id:jiig999:20171112234641j:plain:w300

タッチすると、ピッと反応してくれます。

f:id:jiig999:20171112234832j:plain:w300

インターネットへの接続ができると、セットアップ完了です。

f:id:jiig999:20171112235121j:plain:w300

最後に、このRemoに名前をつけます。複数持っていて寝室とリビングにそれぞれ設置するときなどに区別することが出来ます。 右上の[保存]をタップしてRemo本体の初期セットアップが完了です。

f:id:jiig999:20171112235142j:plain:w300

機器の設定

エアコンの場合

Remo本体の設定が出来たら、次はRemoでコントロールする機器を追加していきます。エアコンに関してはかなりの機種が事前設定済みで、簡単に設定ができます。 アプリ画面の下部にある[コントロール]タブを選んで追加を始めます。画面の指示に従い、Remoに向けてリモコンのボタンを操作します。

f:id:jiig999:20171113004709j:plain:w300

赤外線信号が既知のパターンにマッチした場合、自動的にメーカーと機種が判定され、画面に表示されます。この画面で操作してちゃんと動作すれば判定が合っていると思われるので、次に進みます。 自動検出されない場合や、別メーカーに誤判定されてしまう場合は、マニュアルで設定をすることになります。

f:id:jiig999:20171113000334j:plain:w300

f:id:jiig999:20171113000541j:plain:w300

名前やアイコンは変更することが出来ます。分かりやすい名前に変更しておきましょう。

f:id:jiig999:20171113000642j:plain:w300

エアコンの操作画面はこんな感じです。シンプルでわかりやすいですね。

f:id:jiig999:20171113000842j:plain:w300

コントロール画面です。テレビとエアコンが登録済みです。

f:id:jiig999:20171113000911j:plain:w300

テレビの場合(エアコン以外でも赤外線リモコン機器はなんでも設定可能)

エアコン以外でも手順は同じです。エアコンと違って自動判定されないので、家電の種類と、押したボタンが何なのか(電源ボタンとか、チャンネルボタンとか)をひとつひとつ登録していきます。地道な作業です。 モノによってはしっくりくるアイコンが無くて困ります。アイコン画像をユーザが自由に追加できる機能の追加を切望します。

家電の種類を選ぶ。

f:id:jiig999:20171113001123j:plain:w300

テレビを設定しました。

f:id:jiig999:20171113001338j:plain:w300

ボタン情報を設定します。

f:id:jiig999:20171113001535j:plain:w300

よく使うボタンたちを登録して、仕上げていきます。最終的にこんな感じになります。 この画面で、ボタン配置を変更することができるのですが、これがまた思った配置にするのが難しいです。iPhoneのアプリアイコン並べ替えも同じですが。。。

f:id:jiig999:20171113001625j:plain:w300

ほかにも

ジオフェンスによる自動コントロール(自宅付近300mに近づいたらエアコンONするとか)を設定することができます。また、他のIFTTTイベントをトリガーにした任意のコントロール実行を自由にカスタマイズすることが可能です。 AmazonEchoやGoogleHomeともIFTTT経由で連携でき、音声によるテレビやエアコンなどの家電操作が実現できます。 さらに、Remo本体には温度センサーや湿度センサー、他にもいくつかのセンサーが搭載されていますので、それらの値を使用したトリガーを仕込むことも今後可能になっていくと思われます。

公式サイトはこちら Nature

Uberの衝撃

Uberっちゃいました

やばいよやばい。Uberやばい。便利すぎ。 

 f:id:jiig999:20171102093032j:image

行き先の説明やお金の支払の心配も無し。

慣れない海外旅行でも、Uberがある国なら一人で旅行できそうだぜーっと変な自信がつくぐらい使えるサービスです。

 

Google MAPアプリなんかで、行き先調べると、その時点でもうUber呼べそうなアイコンが表示されます。

f:id:jiig999:20171102093044j:image

これ、最近は日本でGoogle MAP使ってても表示されるときがありますが、当時(2016年12月)は無かったので、見たことないアイコン出てる!?って驚きました。

 

Uber体験(というか使い方) 

行き先を入力。Google MAPで検索して、そのまま選んでもいいし、Uberアプリでも目的地を入力できます。

こちらはUberアプリの画面です。

POOLとかuberXとかはサービスの種類です。uberXはいわゆるタクシーです。POOLは、相乗りしてもいいよ、という乗り方で、料金がuberXよりも安くなります。

f:id:jiig999:20171102093054j:image

他にも、大人数が乗れる車種が来てくれるuberXLや、高級車が来てくれるuberBlackなどがあり、ニーズに応じて最適なサービスを選ぶことができます。しかも料金が事前に分かります。

安いからと行ってPOOLに乗ると、「近くに他の乗客いるからちょっと回り道して拾うわ!」みたいな感じで、思ったより時間がかかる事なんかもあったりするようです。空港に向かう時とか時間にシビアな移動にはPOOLは向かないかも知れませんね。

 

で、画面下部の[UBERX を依頼する]をタップすると、配車リクエスト完了です。これだけ。超簡単。

 

目的地までのドライバーが見つかると、下のような画面が表示されます。黒丸が自分。車アイコンがタクシー車両の現在位置です。ドライバーの名前、車種、ナンバーなどが表示されるので、その車が到着するのを待ちます。

GPSの本家アメリカだからか分かりませんが、現地では位置情報の精度が非常に高かった印象があります。画面上で、お、そこの角を曲がるところだなぁって思って目を向けると、ホントにそのタイミングで曲がって来てビックリしました。

f:id:jiig999:20171102093119j:image

車両が到着すると、お互いに声を掛け合って確認します。といっても、ドライバーに自分の名前を伝えるだけなので、英語力は不要。uber利用において声を発する必要があるのはこのときだけ。あとは会話ができなくても大丈夫です。

無事にカップリング(笑)が成功して乗り込むと、アプリの画面が乗車中モードに切り替わります。

f:id:jiig999:20171102093126j:image

あとは、目的地に着いたら降りるだけ。キャッシュレスなので、現金のやりとりも発生しません。これが助かるし、安心でした。

で、しばらくすると領収書がメールで届きます。何時にどこからどこまで乗って、いくらだだったか、が分かりやすく記載されています。

f:id:jiig999:20171102093132j:image

ダラダラと書いてしまったので、かえって分かりづらくなりましたが、とてもシンプルです。

  1.  目的地を入力する
  2. uberを依頼する
  3. あとは待つだけ

実際のところ、配車リクエストしたあとは、アプリを操作する必要はありません。乗って降りるだけ。

まとめ

開発者目線で言うと、デフォルトの動きをどうするか、という点について、よく考えられていると感じました。なので、特に細かい指定が無い場合はスマホ操作はわずか2-3タップで完了します。これが実にサクサク快適。

 

あとは、ソフトウェアでやるところと人間系でやるところの分担がほどよいと思います。とくに、乗り込む前の確認なんかがそうで、アプリを使わずに声をかけ合うだけで完了します。良い意味でソフトウェアでの対応をあきらめています。スマホアプリにQRコードを表示して、ドライバーに読み取ってもらうとか考えがちだし、やりがちですが、そうはしなかった。ベストなユーザ体験を追求し、人間系での声かけをシステムとして採用した、ということでは無いでしょうか。

 

Alexa Skills KitでAmazonEchoのスキルを自作する方法(1)

※2017/11/8 日本語スキル開発がリリースされたので、日本語版画面でこの記事を再更新する予定です。

※日本語スキル開発を少しやってみてハマった点。macChromeの組合せではサンプル発話を登録する際、スロットと日本語両方を含む発話が保存時にエラーとなってしまいます。safariだと問題なく保存できました。謎です。あと、{SlotName}の後ろに半角スペースを入れずに日本語を続けて入力するとこれまたエラーになるようです。“?“記号を使ってもいけないようです。

Alexa Skills Kitによるスキルの作成 | ASK

スキル作成の流れ

今回説明するのは以下の流れです。処理の実装はAWS Lambdaで作るのが必須というわけではありません。でも、私はいつもLambdaで開発しています。

  1. どんなスキルにするか決める
  2. Amazon DeveloperサイトでAlexa Skillを定義する
  3. AWS Lambdaで処理の実装をする

 

参考にしたのはこのあたりのサイトです

クラスメソッドさん:【Alexa初心者向け】Alexa Skill Kitを噛み砕いて解説してみる | Developers.IO

 

その前に解説 

Alexaの開発について

デベロッパーコンソールにログインすると、開発対象を次の2つから選択することになりますが、それぞれの説明を簡単に。

  • Alexa Skills Kit
  • Alexa Voice Service
Alexa Skills Kit

Amazon Echoから使用できるSkillを開発することができます。Skillというのはアプリのようなものです。 

Alexa Voice Service

Amazon Echoのように、音声で対話できるサービスやデバイスを作る開発者向けのサービスが用意されています。Echoではないデバイス音声認識や対話機能を持たせたいときに使用します。

 

スキルの種類について

2017年11月の時点で、スキル開発時には以下の4つから、自分の作りたいスキルの種類を選ぶ必要があります。

  • Custom Interaction Model
  • Smart Home Skills
  • Flash Briefing Skill
  • Video Skill
Custom Interaction Model

一般的なカスタムスキルです。対話モデルの定義から全てを自分で作成する必要がありますが、柔軟に開発することができます。自分で開発する必要がある代わりに、痒いところに手が届く、というタイプのスキルです。


Smart Home Skills

スマートホーム用デバイスをコントロールすることに特化したスキルです。スマートホームで使うコマンド定義( turn on/off , lock door など)があらかじめ用意されているので、対話定義を自分で作る必要がありません。

あと、Amazon Echoでは、デフォルトで使用するスマートホームスキルを選ぶことができ、その場合は "alexa," のあとにスキル名を言う必要がなくなり、より自然な指示が出せるようになります。

通常の場合:「alexa, ask "MyHomeSkill" to turn on TV.」でテレビがつく

Smart Home Skill 使用:「alexa, turn on TV. 」でテレビがつく


Flash Briefing Skill

RSSフィードを読み込んで、最新情報を読み上げてくれるスキルを作るときに使用。朝一に、よく見るいくつかのニュースサイトなんかをササッと読み上げる(=flash briefingというらしい)スキルを作りたければ、このスキルを選択するのが唯一の方法とリファレンスには記載されています。

 Video Skill

気がつけばいつの間にか追加されていました。TV番組や映画などの映像コンテンツを提供するためのスキルのようです。よく分かりませんが、Echo ShowなどのディスプレイがあるタイプのEchoデバイス用だと思います(たぶん)。

スキル作成手順

Amazon Developer Sign In

Amazon Developer のサイトから、[Developer Console]を開きます。アカウント未作成の場合は、さきにアカウント登録をしておく必要があります。

f:id:jiig999:20171106235632p:plain

すると、こんな画面が表示されるので、[ALEXA]タブに移動し、ASK(Alexa Skills Kit)の[Get Started]をクリックする。

f:id:jiig999:20171106235827p:plain

 

次の画面では、作成済みのSkill一覧が表示されますが、何も作っていないときは表示されません。新しくSkillを作るときは、右上の[Add a New Skill]をクリックします。

f:id:jiig999:20171106235934p:plain

Skill作成画面が表示されます。

[Custom Interaction Model]にチェックを入れ、Languageは[English (U.S.)] を選択します(Japaneseが選べるようになるのが待ち遠しいですね)。

Nameには、スキル名を入力します。Alexaアプリのスキル一覧や、公開した際のストアに表示される名前になります。

Invocation Nameは、呼び出すときの呼び方を指定します。スキル名と同じでも良いですし、全然違う名前を入力しても大丈夫です。下の例ではあえて違うようにしてみました。最後に[Save]をします。

f:id:jiig999:20171107010044p:plain

しばらくするとsaveが完了し、作成したスキルの情報が表示されます。[Next]をクリックして次の設定に進みます。

f:id:jiig999:20171107011347j:plain

 

Interaction Modelを定義する画面が表示されます。最近、Skill BuilderのBETA版が使えるようになりました。そちらを使用するほうが分かりやすいので、[Launch Skill Builder]をクリックしてビルダー画面を起動します。

※2017/11/08 時点では、Skill Builderでは日本語スキル開発ができません(画面の入力チェックが日本語対応できていないような動きをします)。ですので、日本語スキルを開発するときは、[Launch Skill Builder]をクリックしないで作業する必要があります。

f:id:jiig999:20171107012359p:plain

こちらがSkill Builderの画面。初期表示ではDashboard画面が表示されます。まず、インテントを作成するので、[Intents]の横の[ADD +]をクリックします。 

f:id:jiig999:20171107013434p:plain

Intent作成画面が表示されるので、[Create a new custom intent]にチェックを入れ、インテント名を入力して[Create Intent]ボタンをクリックします。インテント名は、大文字小文字を含めて空白なしで入力する必要があります。C#の変数名のような付け方にすることが多いようです。 

f:id:jiig999:20171107012341p:plain

 

次に、作成したIntentに対応する、Sample Utterances(発話サンプル)を登録していきます。Sample Utterancesというのは、ユーザが○○と言ったら、それはこの意図(=Intent)だよ、というのをAlexaに教えるものです。Utteranceは聞き慣れない単語ですが、"発話"とか"発言"という意味で、カタカナ発音だとアタランスといった読み方になります。

alexaはどんどん学習を繰り返して賢くなっている(これからも賢くなり続ける)ので、あらゆる発話パターンをここでSample Utterancesとして登録しておく必要はないようです。例えば、"turn light on"定義しておけば、"light on"や"turn the light on"のように若干違う言い方をしても、丸め込んで同じ意図として解釈してくれるようです。

 

f:id:jiig999:20171114162250p:plain

 

長くなったので続く。。。続きはこちらになります。

redorereadblog.hatenablog.jp

 

 

プレゼンのコツ

プレゼン資料作成のポイントとしてよく言われることですが、最近、メンバーにも以下のポイントを意識してもらうように言っています。

 

1. 誰に

2. 何を伝えて

3. どう行動してほしいのか

4. (それはなぜ?)

 

3が難しいですね。普段あまり意識して考えられていない気がします。

「理解してもらう」とか「知ってもらう」ではダメです。浅いです。

「理解して、予算確保してもらう」とか、「プロジェクトの邪魔をしないようにしてもらう」とか、何かしらあるはずで、そこを言葉にできないということは、なんとなく考えてはいるんだけれど、深くは考えられていないということです。

ここを深く考えられていれば、プレゼンに含めなければいけない内容と、そうでない内容が判断しやすくなります。

実はこれって、プレゼンに限らず、誰かに何かを伝えるという全ての場合にあてはまると思っています。

メールを送るときにせよ、商品をプロモーションするときにせよ、「知ってもらう」ことが本当の目的ではないはずです。

 

中国のシェアサイクル体験記

仕事で中国に行ったときの記憶に残ったことのひとつがシェアサイクルです。アメリカに行ったときはUberに衝撃を受けましたが、中国ではMobike(中国のシェアサイクルのひとつ)に衝撃を受けました。

f:id:jiig999:20171031223244j:image

 

シェアサイクルブーム

2017年現在、中国ではシェアサイクルが大ブームになっています。

何かというと、自転車のシェアです。厳密にはレンタルなのですが、レンタルもシェアの一形態と捉えることが最近の流れのようです。つまり、企業の所有する自転車を、ユーザみんなでシェアして使う、ということです。

北京市内で、みんな似たような自転車に乗っているなーっと思っていたら、全部シェアサイクルでした。

 

日本にもレンタサイクルはありますが、決定的な違いは、「どこに駐めてもよくて、どこでも借りられる」ということです。借りるときは、街中に駐めてある自転車をスマホアプリを使って利用開始でき、乗り終わったときは、そこに乗り捨てるだけです。自転車を駐めて、ロックをかけると利用時間単位で課金される仕組みになっています。

 

f:id:jiig999:20171031223103j:image

写真手前がMobike(モバイク)の自転車。オレンジ色が特徴。他にも、黄色いofo(オーフォ、写真奥)など複数の企業が熾烈な争いを繰り広げている。

 

Mobikeの特徴

Mobikeは、そのサービスの作り込みが凄いです。自転車にはGPSとSIM付きの通信モジュールが搭載されていて、スマホアプリで付近の空き自転車を探すことが出来るようになっています。料金の支払いも全てスマホアプリ上で完結します。現金なんて使いません。そもそも中国では、日本なんかよりずっーとスマホ決済が浸透していて、みんな普通にWeChatアプリ(LINEみたいなもの)とかでレストランの支払いをしていました←この時点で驚愕

  

f:id:jiig999:20171031221743j:image

自転車にはQRコードがついていて、 アプリで読み込むことでロックが外れて利用出来るようになります。

GPSやら通信機能なんて、電源はどうしてるの?と気になるところですよね。なんと、前カゴの底面が太陽光発電パネルになっていて、ハブダイナモとそこから充電としているそうです。ぬかりないです。

メンテナンスフリーで運用できるように、チューブレスタイヤを履いていますので、パンクもしにくいです。

各社がサービス展開している中で、Mobikeの自転車は『壊れていない』事が多く、評判が良いようです。

 

中国で起きたこと

シェアサイクルが広まると、自転車に乗る人が増えて駅前とかが自転車だらけになるんじゃないの?という疑問があります。これは諸説あるようですが、増えていない、むしろ減った、という考えもあるようです。

 

どういうことかというと、仕事で駅まで自転車で行って駐める場合だと、その人が仕事が終わって帰ってくるまで自転車は駐めっぱなしなわけです。ところが、シェアサイクルが当たり前の社会だと、この間に他の人が乗ることになるので、駐めっぱなしの自転車が減るわけです。

仮にシェアサイクルの登場によって、自転車で移動する人の総数が増えたとしても(おそらく増えたのだと思います)、誰かが乗って動いているアクティブな自転車がこれまでよりも増えるので、結果として駐輪されている自転車は減る、という理屈です。

なるほど、それは有り得る話だと思います。

実際のところは誰もきちんと計測していないので、分からないということのようですが、、、。

 

あと、ある地点に偏った自転車を移動して分散させるという新しい仕事が出来たようです。ある意味、雇用の創出です。面白いですね。

 

日本における展開

さて、日本でも、北海道でこのMobikeがサービスインしたり、大阪ではofoがサービス開始するようですね。

 

このシェアサイクルというサービスは、いかに広く細かく分布して配置できるか、がキモになると思います。つまり、『乗りたいときに近くに乗れる自転車がある』という状況をどれだけつくることができるか、です。

日本ではなかなか中国のように『どこでも乗り捨て』の形態は実現できないと思うので、駐輪場所をどれだけ確保できるか、が成否を分けるのではないでしょうか。駐輪場所としてはコンビニなどが思い付きますが、コンビニ側にもメリットが無いと難しいので、場所を提供する側のメリットまで含めてサービスを設計する必要がありそうです。