元茹でガエルなエンジニアの記録

ちょっとやってみたことや考えたことなどを不定期に書き残していきます

Uberの衝撃

Uberっちゃいました

やばいよやばい。Uberやばい。便利すぎ。 

 f:id:jiig999:20171102093032j:image

行き先の説明やお金の支払の心配も無し。

慣れない海外旅行でも、Uberがある国なら一人で旅行できそうだぜーっと変な自信がつくぐらい使えるサービスです。

 

Google MAPアプリなんかで、行き先調べると、その時点でもうUber呼べそうなアイコンが表示されます。

f:id:jiig999:20171102093044j:image

これ、最近は日本でGoogle MAP使ってても表示されるときがありますが、当時(2016年12月)は無かったので、見たことないアイコン出てる!?って驚きました。

 

Uber体験(というか使い方) 

行き先を入力。Google MAPで検索して、そのまま選んでもいいし、Uberアプリでも目的地を入力できます。

こちらはUberアプリの画面です。

POOLとかuberXとかはサービスの種類です。uberXはいわゆるタクシーです。POOLは、相乗りしてもいいよ、という乗り方で、料金がuberXよりも安くなります。

f:id:jiig999:20171102093054j:image

他にも、大人数が乗れる車種が来てくれるuberXLや、高級車が来てくれるuberBlackなどがあり、ニーズに応じて最適なサービスを選ぶことができます。しかも料金が事前に分かります。

安いからと行ってPOOLに乗ると、「近くに他の乗客いるからちょっと回り道して拾うわ!」みたいな感じで、思ったより時間がかかる事なんかもあったりするようです。空港に向かう時とか時間にシビアな移動にはPOOLは向かないかも知れませんね。

 

で、画面下部の[UBERX を依頼する]をタップすると、配車リクエスト完了です。これだけ。超簡単。

 

目的地までのドライバーが見つかると、下のような画面が表示されます。黒丸が自分。車アイコンがタクシー車両の現在位置です。ドライバーの名前、車種、ナンバーなどが表示されるので、その車が到着するのを待ちます。

GPSの本家アメリカだからか分かりませんが、現地では位置情報の精度が非常に高かった印象があります。画面上で、お、そこの角を曲がるところだなぁって思って目を向けると、ホントにそのタイミングで曲がって来てビックリしました。

f:id:jiig999:20171102093119j:image

車両が到着すると、お互いに声を掛け合って確認します。といっても、ドライバーに自分の名前を伝えるだけなので、英語力は不要。uber利用において声を発する必要があるのはこのときだけ。あとは会話ができなくても大丈夫です。

無事にカップリング(笑)が成功して乗り込むと、アプリの画面が乗車中モードに切り替わります。

f:id:jiig999:20171102093126j:image

あとは、目的地に着いたら降りるだけ。キャッシュレスなので、現金のやりとりも発生しません。これが助かるし、安心でした。

で、しばらくすると領収書がメールで届きます。何時にどこからどこまで乗って、いくらだだったか、が分かりやすく記載されています。

f:id:jiig999:20171102093132j:image

ダラダラと書いてしまったので、かえって分かりづらくなりましたが、とてもシンプルです。

  1.  目的地を入力する
  2. uberを依頼する
  3. あとは待つだけ

実際のところ、配車リクエストしたあとは、アプリを操作する必要はありません。乗って降りるだけ。

まとめ

開発者目線で言うと、デフォルトの動きをどうするか、という点について、よく考えられていると感じました。なので、特に細かい指定が無い場合はスマホ操作はわずか2-3タップで完了します。これが実にサクサク快適。

 

あとは、ソフトウェアでやるところと人間系でやるところの分担がほどよいと思います。とくに、乗り込む前の確認なんかがそうで、アプリを使わずに声をかけ合うだけで完了します。良い意味でソフトウェアでの対応をあきらめています。スマホアプリにQRコードを表示して、ドライバーに読み取ってもらうとか考えがちだし、やりがちですが、そうはしなかった。ベストなユーザ体験を追求し、人間系での声かけをシステムとして採用した、ということでは無いでしょうか。

 

Alexa Skills KitでAmazonEchoのスキルを自作する方法(1)

※2017/11/8 日本語スキル開発がリリースされたので、日本語版画面でこの記事を再更新する予定です。

※日本語スキル開発を少しやってみてハマった点。macChromeの組合せではサンプル発話を登録する際、スロットと日本語両方を含む発話が保存時にエラーとなってしまいます。safariだと問題なく保存できました。謎です。あと、{SlotName}の後ろに半角スペースを入れずに日本語を続けて入力するとこれまたエラーになるようです。“?“記号を使ってもいけないようです。

Alexa Skills Kitによるスキルの作成 | ASK

スキル作成の流れ

今回説明するのは以下の流れです。処理の実装はAWS Lambdaで作るのが必須というわけではありません。でも、私はいつもLambdaで開発しています。

  1. どんなスキルにするか決める
  2. Amazon DeveloperサイトでAlexa Skillを定義する
  3. AWS Lambdaで処理の実装をする

 

参考にしたのはこのあたりのサイトです

クラスメソッドさん:【Alexa初心者向け】Alexa Skill Kitを噛み砕いて解説してみる | Developers.IO

 

その前に解説 

Alexaの開発について

デベロッパーコンソールにログインすると、開発対象を次の2つから選択することになりますが、それぞれの説明を簡単に。

  • Alexa Skills Kit
  • Alexa Voice Service
Alexa Skills Kit

Amazon Echoから使用できるSkillを開発することができます。Skillというのはアプリのようなものです。 

Alexa Voice Service

Amazon Echoのように、音声で対話できるサービスやデバイスを作る開発者向けのサービスが用意されています。Echoではないデバイス音声認識や対話機能を持たせたいときに使用します。

 

スキルの種類について

2017年11月の時点で、スキル開発時には以下の4つから、自分の作りたいスキルの種類を選ぶ必要があります。

  • Custom Interaction Model
  • Smart Home Skills
  • Flash Briefing Skill
  • Video Skill
Custom Interaction Model

一般的なカスタムスキルです。対話モデルの定義から全てを自分で作成する必要がありますが、柔軟に開発することができます。自分で開発する必要がある代わりに、痒いところに手が届く、というタイプのスキルです。


Smart Home Skills

スマートホーム用デバイスをコントロールすることに特化したスキルです。スマートホームで使うコマンド定義( turn on/off , lock door など)があらかじめ用意されているので、対話定義を自分で作る必要がありません。

あと、Amazon Echoでは、デフォルトで使用するスマートホームスキルを選ぶことができ、その場合は "alexa," のあとにスキル名を言う必要がなくなり、より自然な指示が出せるようになります。

通常の場合:「alexa, ask "MyHomeSkill" to turn on TV.」でテレビがつく

Smart Home Skill 使用:「alexa, turn on TV. 」でテレビがつく


Flash Briefing Skill

RSSフィードを読み込んで、最新情報を読み上げてくれるスキルを作るときに使用。朝一に、よく見るいくつかのニュースサイトなんかをササッと読み上げる(=flash briefingというらしい)スキルを作りたければ、このスキルを選択するのが唯一の方法とリファレンスには記載されています。

 Video Skill

気がつけばいつの間にか追加されていました。TV番組や映画などの映像コンテンツを提供するためのスキルのようです。よく分かりませんが、Echo ShowなどのディスプレイがあるタイプのEchoデバイス用だと思います(たぶん)。

スキル作成手順

Amazon Developer Sign In

Amazon Developer のサイトから、[Developer Console]を開きます。アカウント未作成の場合は、さきにアカウント登録をしておく必要があります。

f:id:jiig999:20171106235632p:plain

すると、こんな画面が表示されるので、[ALEXA]タブに移動し、ASK(Alexa Skills Kit)の[Get Started]をクリックする。

f:id:jiig999:20171106235827p:plain

 

次の画面では、作成済みのSkill一覧が表示されますが、何も作っていないときは表示されません。新しくSkillを作るときは、右上の[Add a New Skill]をクリックします。

f:id:jiig999:20171106235934p:plain

Skill作成画面が表示されます。

[Custom Interaction Model]にチェックを入れ、Languageは[English (U.S.)] を選択します(Japaneseが選べるようになるのが待ち遠しいですね)。

Nameには、スキル名を入力します。Alexaアプリのスキル一覧や、公開した際のストアに表示される名前になります。

Invocation Nameは、呼び出すときの呼び方を指定します。スキル名と同じでも良いですし、全然違う名前を入力しても大丈夫です。下の例ではあえて違うようにしてみました。最後に[Save]をします。

f:id:jiig999:20171107010044p:plain

しばらくするとsaveが完了し、作成したスキルの情報が表示されます。[Next]をクリックして次の設定に進みます。

f:id:jiig999:20171107011347j:plain

 

Interaction Modelを定義する画面が表示されます。最近、Skill BuilderのBETA版が使えるようになりました。そちらを使用するほうが分かりやすいので、[Launch Skill Builder]をクリックしてビルダー画面を起動します。

※2017/11/08 時点では、Skill Builderでは日本語スキル開発ができません(画面の入力チェックが日本語対応できていないような動きをします)。ですので、日本語スキルを開発するときは、[Launch Skill Builder]をクリックしないで作業する必要があります。

f:id:jiig999:20171107012359p:plain

こちらがSkill Builderの画面。初期表示ではDashboard画面が表示されます。まず、インテントを作成するので、[Intents]の横の[ADD +]をクリックします。 

f:id:jiig999:20171107013434p:plain

Intent作成画面が表示されるので、[Create a new custom intent]にチェックを入れ、インテント名を入力して[Create Intent]ボタンをクリックします。インテント名は、大文字小文字を含めて空白なしで入力する必要があります。C#の変数名のような付け方にすることが多いようです。 

f:id:jiig999:20171107012341p:plain

 

次に、作成したIntentに対応する、Sample Utterances(発話サンプル)を登録していきます。Sample Utterancesというのは、ユーザが○○と言ったら、それはこの意図(=Intent)だよ、というのをAlexaに教えるものです。Utteranceは聞き慣れない単語ですが、"発話"とか"発言"という意味で、カタカナ発音だとアタランスといった読み方になります。

alexaはどんどん学習を繰り返して賢くなっている(これからも賢くなり続ける)ので、あらゆる発話パターンをここでSample Utterancesとして登録しておく必要はないようです。例えば、"turn light on"定義しておけば、"light on"や"turn the light on"のように若干違う言い方をしても、丸め込んで同じ意図として解釈してくれるようです。

 

f:id:jiig999:20171114162250p:plain

 

長くなったので続く。。。続きはこちらになります。

redorereadblog.hatenablog.jp

 

 

プレゼンのコツ

プレゼン資料作成のポイントとしてよく言われることですが、最近、メンバーにも以下のポイントを意識してもらうように言っています。

 

1. 誰に

2. 何を伝えて

3. どう行動してほしいのか

4. (それはなぜ?)

 

3が難しいですね。普段あまり意識して考えられていない気がします。

「理解してもらう」とか「知ってもらう」ではダメです。浅いです。

「理解して、予算確保してもらう」とか、「プロジェクトの邪魔をしないようにしてもらう」とか、何かしらあるはずで、そこを言葉にできないということは、なんとなく考えてはいるんだけれど、深くは考えられていないということです。

ここを深く考えられていれば、プレゼンに含めなければいけない内容と、そうでない内容が判断しやすくなります。

実はこれって、プレゼンに限らず、誰かに何かを伝えるという全ての場合にあてはまると思っています。

メールを送るときにせよ、商品をプロモーションするときにせよ、「知ってもらう」ことが本当の目的ではないはずです。

 

中国のシェアサイクル体験記

仕事で中国に行ったときの記憶に残ったことのひとつがシェアサイクルです。アメリカに行ったときはUberに衝撃を受けましたが、中国ではMobike(中国のシェアサイクルのひとつ)に衝撃を受けました。

f:id:jiig999:20171031223244j:image

 

シェアサイクルブーム

2017年現在、中国ではシェアサイクルが大ブームになっています。

何かというと、自転車のシェアです。厳密にはレンタルなのですが、レンタルもシェアの一形態と捉えることが最近の流れのようです。つまり、企業の所有する自転車を、ユーザみんなでシェアして使う、ということです。

北京市内で、みんな似たような自転車に乗っているなーっと思っていたら、全部シェアサイクルでした。

 

日本にもレンタサイクルはありますが、決定的な違いは、「どこに駐めてもよくて、どこでも借りられる」ということです。借りるときは、街中に駐めてある自転車をスマホアプリを使って利用開始でき、乗り終わったときは、そこに乗り捨てるだけです。自転車を駐めて、ロックをかけると利用時間単位で課金される仕組みになっています。

 

f:id:jiig999:20171031223103j:image

写真手前がMobike(モバイク)の自転車。オレンジ色が特徴。他にも、黄色いofo(オーフォ、写真奥)など複数の企業が熾烈な争いを繰り広げている。

 

Mobikeの特徴

Mobikeは、そのサービスの作り込みが凄いです。自転車にはGPSとSIM付きの通信モジュールが搭載されていて、スマホアプリで付近の空き自転車を探すことが出来るようになっています。料金の支払いも全てスマホアプリ上で完結します。現金なんて使いません。そもそも中国では、日本なんかよりずっーとスマホ決済が浸透していて、みんな普通にWeChatアプリ(LINEみたいなもの)とかでレストランの支払いをしていました←この時点で驚愕

  

f:id:jiig999:20171031221743j:image

自転車にはQRコードがついていて、 アプリで読み込むことでロックが外れて利用出来るようになります。

GPSやら通信機能なんて、電源はどうしてるの?と気になるところですよね。なんと、前カゴの底面が太陽光発電パネルになっていて、ハブダイナモとそこから充電としているそうです。ぬかりないです。

メンテナンスフリーで運用できるように、チューブレスタイヤを履いていますので、パンクもしにくいです。

各社がサービス展開している中で、Mobikeの自転車は『壊れていない』事が多く、評判が良いようです。

 

中国で起きたこと

シェアサイクルが広まると、自転車に乗る人が増えて駅前とかが自転車だらけになるんじゃないの?という疑問があります。これは諸説あるようですが、増えていない、むしろ減った、という考えもあるようです。

 

どういうことかというと、仕事で駅まで自転車で行って駐める場合だと、その人が仕事が終わって帰ってくるまで自転車は駐めっぱなしなわけです。ところが、シェアサイクルが当たり前の社会だと、この間に他の人が乗ることになるので、駐めっぱなしの自転車が減るわけです。

仮にシェアサイクルの登場によって、自転車で移動する人の総数が増えたとしても(おそらく増えたのだと思います)、誰かが乗って動いているアクティブな自転車がこれまでよりも増えるので、結果として駐輪されている自転車は減る、という理屈です。

なるほど、それは有り得る話だと思います。

実際のところは誰もきちんと計測していないので、分からないということのようですが、、、。

 

あと、ある地点に偏った自転車を移動して分散させるという新しい仕事が出来たようです。ある意味、雇用の創出です。面白いですね。

 

日本における展開

さて、日本でも、北海道でこのMobikeがサービスインしたり、大阪ではofoがサービス開始するようですね。

 

このシェアサイクルというサービスは、いかに広く細かく分布して配置できるか、がキモになると思います。つまり、『乗りたいときに近くに乗れる自転車がある』という状況をどれだけつくることができるか、です。

日本ではなかなか中国のように『どこでも乗り捨て』の形態は実現できないと思うので、駐輪場所をどれだけ確保できるか、が成否を分けるのではないでしょうか。駐輪場所としてはコンビニなどが思い付きますが、コンビニ側にもメリットが無いと難しいので、場所を提供する側のメリットまで含めてサービスを設計する必要がありそうです。

Amazon Echo (alexa) スキル開発のメモ

自分用にメモ。

※11/12 日本語スキルの呼び出し方を追記

※2018/02/05 自分がよく使う日本語での呼び出し例を追加

 

スキルの呼び出し方

スキルを呼び出すには、alexa, と呼びかけてから、スキル名(正確にはinvocation name、呼び出し名という)を含む特定のフレーズを言う必要がある。これがいろんな種類があるので、自分のスキルにしっくりくる文章になるように語りかければ良い感じに呼び出せる。私は、smart doorというスキルを作り、「alexa, open smart door to open. 」(ドアを開けるとき)、「alexa, open smart door to close.」(ドアを閉めるとき)と言いながら、こりゃ変だな、となりました(笑)

で、フレーズ一覧。

公式ドキュメントはこちら:
ユーザーによるカスタムスキルの呼び出し | Custom Skills

 

スキル起動のみの場合(LaunchRequest)

※スキルの呼び出し名(invocation name)は、”俺スキル”, “my skill”としています。

 日本語

アレクサ、俺スキル(呼び出し名のみでも呼び出せる)

"俺スキル"を使って

"俺スキル"を開いて

"俺スキル"をスタート

"俺スキル"をスタートして

"俺スキル"を始める

"俺スキル"を開始

"俺スキル"を再生

"俺スキル"をかけて

"俺スキル"を流して

"俺スキル"を再開

"俺スキル"を実行

"俺スキル"に話して 

"俺スキル"と言って 

 

英語の場合 

Alexa, my skill (invocation nameのみでも呼び出せる)
Ask my skill
Begin my skill
Do my skill
Launch my skill
Load my skill
Open my skill
Play my skill
Play the game my skill
Resume my skill
Run my skill
Start my skill
Start playing my skill
Start playing the game my skill
Talk to my skill
Tell my skill
Use my skill

この呼び出し方の場合、スキルが起動したあと、で、何しましょ?っという会話シーケンスになるのが通常。

例) ※めんどうなので日本語で会話イメージ

>Alexa, start ミュージックプレイヤー

<Hi、ミュージックプレイヤーです。何が聴きたいですか?曲名かアルバム名かアーティスト名を言ってください

ビートルズお願い

<OK

みたいな感じ

  

スキルに意図(Intent)を伝えつつ呼び出す(IntentRequest)

スキルに、何をして欲しいかなどの情報を伝えつつ起動する方法。基本的には上述の呼び出し方で、前か後ろにつなげて発話する。

日本語の例
  • アレクサ、"俺スキル"でリビングの電気をつけて
  • アレクサ、"俺スキル"でピザのレシピを教えて
  • アレクサ、"俺スキル"をスタートしてA社の株価をチェック
  • アレクサ、○○"俺スキル"に聞いて
  • アレクサ、○○"俺スキル"で調べて
  • アレクサ、○○"俺スキル"で教えて
  • アレクサ、"俺スキル"○○を調べて
  • アレクサ、"俺スキル"○○を聞いて
英語の例
  • Alexa, ask my player to play xxx.
  • invocation name のうしろに、to, about, for, if, whetherでつなぐ
  • Alexa, play xxx from my player
  • by, from, in, using, withの後ろにinvocation nameをつなぐ

 

 

 …随時更新の予定…

 

Appleの凄さとカスタマージャーニー

Appleって、スゴイということを、最近になって思い知っています。Appleというより、ジョブズなのかも知れませんが。

 

最近、仕事の関係でビジネスモデルとか顧客体験とか、マーケティングとか勉強しています。すると、Appleのやり方がiPodiPhoneというモノ売りメインでありながら、モノの機能だけでなく、ユーザの購買プロセスまでをカバーした体験設計がなされていることに気付かされました。

 

どういうことか、iPodを例に説明します。

まず、新商品発表のプレゼンです。ジョブズの動画を見たことがある方もいると思いますが、「1000曲をポケットに」というアレです。で、実際にモノを買う場所は、Appleストアもしくは家電量販店のAppleコーナーになります。

 

日本の家電機器メーカーで、統一されたコンセプトで専用コーナーやストアを構えているメーカーなんて見たことがありません。(もちろん、それにも良い面と悪い面があるので、必ずしも正しいやり方とは言えないでしょうが)

売るモノを作って、あとはお店にお願い、ではなく、売り方まで口出しをするわけです。

 

つまり、製品を使うシーンだけではなく、製品を知り、興味を持ち、店に見に行き、手に取り、買う、という顧客体験すべてをプロデュースしていると言えます。

 

もちろん、実際に製品を使う体験も、綿密に設計されています。

1000曲をポケットにのコンセプトはもちろんのこと、大量の曲をiTunesからiPodに取り込むのに時間がかからないように、だとか、移動中の音飛びをガードする機能だとか、データ転送しながら充電できるケーブルだとか。

 

Appleは、製品を購入した(する)顧客とのタッチポイント全てを他人任せにしない、妥協しない、と言えるのではないでしょうか。ジョブズ亡き今は知りませんが。。。

 

もちろん、日本のメーカーだってCMにこだわったり、売り場のいいスペースを取ろうと頑張ったりはしていますが、それぞれがバラバラでやっている印象を受けます。

ユーザが商品のことを知り、購入して持ち帰り、箱を開けるときのことまでも含めて一連の流れとして捉えている、とは感じられません。

 

Apple製品は決して安くありません。ですが一定のファンがいます。

彼らは製品単体というより、全体としての顧客体験のファンなのではないでしょうか。

 

追記

新しいサービスや商品を検討するために、現在のユーザの活動をカスタマージャーニーマップに書きおこすことがあります。つまり、BEFOREの状態の可視化です。でも、アイデア導入後(AFTER)に全体のカスタマージャーニーがどうなるか、新しいサービスを導入することでどこかに歪みが生じていないか、を考えることも重要だと思います。

Nature Remo使ってみた

これは、春ぐらいに買ったプロダクトの話ですが、ようやく書きます。

 

何ソレ?

NatureRemoは、赤外線リモコンをスマホから遠隔コントロール出来るようにするガジェットです。前身であるIRKitというプロダクト(開発者とかマニア向け)を、さらに一般市場向けにUIだとか機能面の作り込みをしてグレードアップしたもの、と私は捉えています。

f:id:jiig999:20171027234329j:image

 

クラウドファンディングで資金募集&発売をしていました。私はIndiegogoで入手しました。

現在は日本でのGoogleHome発売に合わせて、正式に販売開始されたようです(未確認)。

 

IndiegogoのNature Remoページはこちら

https://www.indiegogo.com/projects/nature-remo#/

 

で、何が出来るのというと、赤外線リモコンで操作している機器なら(たぶん)何でもスマホアプリひとつで操作できるようになります。しかも外からでも。

 

さらに、IFTTTというWebサービス連携サービス(こんな呼び方でいいのか知りませんが)を使って、「自宅の半径200m以内に入ったらエアコンをONする」とか、「自宅から1km以上離れたらエアコンと照明をOFFする」なんてことが実現できます。

 

開封の儀

Indiegogoへの申込みから待つこと数か月。何度かメールで状況のアップデートがありましたが、当初予定から延期になっていた出荷がついに行われたということで到着を楽しみに待っていました。

数日後、自宅に帰ると段ボールが。

…来たー。ってことでさっそく開封。

 

f:id:jiig999:20171027150816j:image

ツーピースの申込みで資金投入していたので、二つ入っています。

 

f:id:jiig999:20171027150824j:image

 

こんなパッケージです。IRKitと比べると、デザインもしっかりしていて、さすがに商品らしくなっていますね。

 

 セットアップ

箱から出してセットアップするとき、写真を撮り忘れていました。また後日気が向いたときに更新します。。

 

とりあえず、アプリの画面はこんなの。

f:id:jiig999:20171027233103j:image

画像は、エアコン一台とLED照明が登録されている状態ですが、右上の+ボタンで機器を追加できます。

機器の追加も、主要メーカーのエアコンについては事前定義されていて、Remoに向かってリモコンの電源ボタンを押すと、赤外線信号パターンからどの機種かを自動判断してくれます。私の家のエアコンは一台は認識されましたが、もう一台は自動判断できなかったので、自分でマニュアル操作で登録しました。

 

f:id:jiig999:20171027233106j:image

エアコンのコントロール画面です。Nature Remoはエアコンの効率的なコントロールによる地球環境への貢献をコンセプトとしていることもあり、エアコンについては専用画面があるようです。

 

もちろん、エアコン以外のテレビや照明なんかも、マニュアル操作で登録することで扱えるようになります。ただ、画面はこんな感じのそっけない汎用UIになります。

f:id:jiig999:20171027234028j:image

 

感想など

使ってみての感想ですが、夏場は、仕事帰りに家に着く少し前からエアコン入れて部屋を冷やしておけるのが快適で便利でした(2階の部屋はとても暑くなるので)。

あと、寝る前の消灯なんかも、手元のスマホで操作できるので、リモコンを枕元に置いておく必要もなくなりました。

 

ホントはAmazon EchoとかraspberryPiから部屋中まとめてコントロールしたいので、早くSDK(というか、API)が公開されて欲しいですね。IRKitと同じ感じでいける、という話もあるようですが、まだ試せていません。ってか、今は手元にありません。。 

※現在、湿度センサーに初期不良があり、2つとも修理回収に出しています。早く帰ってきて欲しいなぁ。

※2017/11/12 初期不良で返送していた2つの代わりに、新品が送られてきました。せっかくなので改めて設定方法を記事にしました

 

redorereadblog.hatenablog.jp