2021年07月12日

18メートル先の情報もカメラでキャッチ、360ビジョンで捕らえたタグは逃がさない「NaviLens Version 3.0.4」 with iOS 14.6 VoiceOver

このアプリはiPhone 12 Pro, iOS 14.6でのVoiceOver環境で読み上げ操作を確認しています。
使用しているアプリのバージョンは3.0.4です。







__________目次の先頭へもどる__________

■1 はじめに


GPSを利用したナビゲーションアプリはいくつもリリースされていますが、衛星からの電波が届かない屋内でのナビゲーションはまだまだ実験中というのが現状です。

スペインのバルセロナから普及し始めているNaviLensは、QRコードのような専用タグをスマートフォンのカメラで読み取る仕組みを採用し、屋内ナビゲーション目的でも利用されています。
遠く離れた場所からでも簡単な操作でタグを検知できるというのが大きな特徴です。


NaviLensの発音は日本語では「ナビレンズ」とするのが一般的かもしれませんが、
スペイン語では「ズ」とは発音しないので、
公式サイトでは「ナビレンス」と表記されています。


アプリはiOSとAndroid向けにリリースされています。

NaviLens on the App Store
https://apps.apple.com/jp/app/navilens/id1273704914

NaviLens - Google Play のアプリ
https://play.google.com/store/apps/details?id=com.neosistec.NaviLens&hl=ja

公式YouTubeチャンネルでは日本語の開設動画を視聴できます。
ナビレンス基本操作チュートリアル2021 - YouTube
https://www.youtube.com/watch?v=j0ut6CD2Nes

NaviLensは元々視覚障害者向けに開発されたアプリですが、だれでも便利に活用できるということで、見えている人向けにもNaviLens GOというアプリをリリースしています。
また、外国語へ自動翻訳もしてくれるので、外国語ユーザ向けの掲示板としても活用されているようです。


「NaviLens GO」
https://apps.apple.com/jp/app/navilens-go/id1313878412


さて、タグの種類はパーソナル利用、パブリック利用、ビジネス利用に大別できます。
地下鉄やバス、博物館などで採用されているのはビジネス利用のタイプで、NaviLensアプリを使えばだれでも情報を得ることができます。

たとえば、四角いカラフルなデザインのNaviLensタグを駅の券売機横に掲示しておけば、視覚障害ユーザは離れた位置からスマートフォンのカメラで見回すことにより、その場所の名前と距離を知ることができます。

タグにはテキスト情報を記録でき、ビジネス利用のタグの場合はその内容をサーバーで管理しているので、内容に変更があった場合には書き換え可能です。
デジタルサイネージ、電子掲示板に書かれている情報が見えないユーザの場合、このタグはそれに代わる存在になってくれることでしょう。

パーソナル利用のタグの場合は、テキストは空っぽなので、自分で好きなテキスト情報をパーソナルメモとして書き込むことができます。
基本的に情報を読み取れるのは自分の端末のみです。
ただし、共有機能を利用することで、5任のユーザーと内容を相互に確認することができます。

パブリック利用のタグでは、基本情報が書き込まれています。
たとえば学校向けに提供されているタグでは、トイレや教室の名前などがすでに書き込まれており、だれもがその情報を読み取ることができます。

それぞれのタグにはパーソナルメモを書き込めるようになっているので、自分にとって都合のよい内容を書き込んでおけば、さらに充実した情報を得ることができるでしょう。


A4サイズのタグであれば18メートル離れた位置から検出可能だそうです。
小さなサイズのタグは近い距離でないと認識できません。


ところで、パーソナル利用とパブリック利用のタグについてですが、リクエストするとタグの書かれたPDFが添付されたメールが届きます。
それを印刷して利用します。

普通の用紙に印刷してもよいですし、フォト用紙に印刷すれば耐久性が高くなります。



__________目次の先頭へもどる__________

■2 最初に起動する手順


まず最初に起動すると、利用規約が表示されます。
「利用規約に同意する」のチェックボックスにチェックをつけて、
「次へ」ボタンを実行します。

通知の許可をするかどうかの問い合わせが表示されます。
つづいて、
カメラへのアクセスと、位置情報へのアクセスを許可するメッセージが表示されます。
許可すると、アプリのトップ画面が表示されます。



__________目次の先頭へもどる__________

■3 トップ画面の構成


トップ画面では、タグを読み取るモードになっています。
背面カメラで見回してタグを見つけるという操作です。
デフォルトではしばらくタグを読み取らないでいると、スキャンは中断されてデバイスは待機状態になります。これはバッテリーの消費を抑えるためです。

再び読み取りモードに切り替えるには、
本体をシェイクするか、
「スキャンのリセット」ボタンを実行します。


読み取りモードの画面では、下端に四つのボタンが表示されています。

  • 「メインメニュー」ボタン
    各種設定ができます。
    LEDフラッシュライトの動作の変更もここで行います。


  • 「フィルタのタブ」ボタン
    キーワードの含まれたタグを検出します。


  • 「ズーム」または「超広角モード」のオン・オフ切り替えボタン
    ズームか超広角モードを利用するためのボタンです。
    「メインメニュー」の中で、
    「設定」、「サブズームモード」の中でカメラレンズの使い方を指定できます。


  • 「360ビジョン」ボタン
    360度を見回して空間オーディオを利用します。




__________目次の先頭へもどる__________

■4 タグを読み取ってみよう


タグを読み取るには、カメラで見回すだけの操作です。
タグを見つけたらカチ・カチ・とクリック音が聞こえます。
タグに記録されている情報は自動的に読み上げられますが、iPhone本体をシェイクすることでも読み上げられます。

読み取った情報は画面の上部、ステータスバーの下辺りにテキストで表示されます。

タグがどの方向にあるのかは「プコンプコン」という効果音が目安になります。
上は高い音、下は低い音、左は弱い音、右は強い音。
正面はその中間の音。



__________目次の先頭へもどる__________

■5 各種設定


トップ画面の中で
「メインメニュー」ボタンを実行します。
次に、
「設定, アプリケーションのオプション」ボタンを実行します。

タグを検出した時のお知らせ方法や、
距離の単位、
LEDライトの点灯、
ハンズフリー、
などをカスタマイズできます。



__________目次の先頭へもどる__________

■5-1 タグを見つけたときのお知らせ方法


「位置情報モード サウンド」ボタンを実行します。
検出されたタグまでの誘導方法を指定できます。

  • ・「サウンド」のオン・オフ切り替えボタン
    オンになっていると、タグの方向を効果音で教えてくれます。デフォルトではオンになっています。


  • ・「音声ガイダンス」のオン・オフ切り替えボタン
    オンになっていると、声で案内してくれます。「左」や「上」というように、声で教えてくれます。


  • ・「ハプティック」のオン・オフ切り替えボタン
    振動での合図


  • ・「拝啓場所」のオン・オフ切り替えボタン
    タグの内容と場所の音を再生します。




__________目次の先頭へもどる__________

■5-2 タグ内容の読み取り方


「読み取りオプション 読み込む 距離」ボタンを実行します。
タグの情報を読み上げるタイミングや、タグまでの距離を読み上げるかどうかなどを指定できます。

  • 「検出時に読み込む」のオン・オフ切り替えボタン
    タグを検出した時にその内容を自動的に読み上げるかどうかを切り替えます。


  • 「新しいタグの検出時に読み上げを中断する」のオン・オフ切り替えボタン
    タグに多くの内容が書き込まれている場合、新しく別のタグを読み取った時に前のタグの内容を最後まで読み上げさせるかどうかを切り替えます。


  • 「ショートテキスト」のオン・オフ切り替えボタン
    タグに多くの内容が書き込まれている場合、読み取りモードの画面には短いテキストだけを表示するかどうかを切り替えます。


  • 「距離を読み上げる」のオン・オフ切り替えボタン
    タグまでの距離を読み上げるかどうかを切り替えます。


  • 「角度を読み上げる」のオン・オフ切り替えボタン
    検出したタグがどこにあるのか、傾き具合で読み上げるかどうかを切り替えます。


  • 「最終更新からの経過時間を音声で知らせる」のオン・オフ切り替えボタン
    最後に読み取ったタグからの経過時間を読み上げるかどうかを切り替えます。




__________目次の先頭へもどる__________

■5-3 360ビジョン 3Dオーディオ


発見したコードを見失っても、3Dオーディオを頼りに、そのコードの場所を見つけやすくなります。
「360ビジョン」ボタンを実行します。
モノラルとステレオの切り替えやお知らせ方法などを指定できます。

  • マグネット
    「特殊なコードを検出したときに自動的に360ビジョンモードに切り替え」のオン・オフ切り替えボタン
    オンになっていると、マグネットコードと表現されている特別なコードを検出すると、自動的に360ビジョンのモードに切り替わります。


  • 位置情報モード
    複数選択できます。
    「サウンド」のオン・オフ切り替えボタン
    「音声ガイダンス」のオン・オフ切り替えボタン
    「ハプティック」のオン・オフ切り替えボタン


  • 3Dサウンドアルゴリズム
    どれか一つを指定します。
    ・モノラルサウンド
    ・ステレオパン
    ・3Dサウンド(HRTF)


  • 方向指示命令
    ・クロックポジション指示
    ・簡易指示


  • タグフォーカスサウンド
    検出したタグの場所を知らせるサウンドを指定します。
    ・ベル
    ・サウンド1
    ・サウンド2
    ・サウンド3




■5-4 バッテリー節約


「エネルギーモード」ボタンを実行します。
バッテリー消費の速さに関係します。

  • ・高パフォーマンス

  • ・自動

  • ・省エネルギー


いずれかを指定します。



__________目次の先頭へもどる__________

■5-5 フラッシュの自動点灯


「フラッシュモード」ボタンを実行します。

  • ・オフ

  • ・オン

  • ・自動


いずれかを指定します。
「自動」になっていると暗い場所で自動的に点灯します。



__________目次の先頭へもどる__________

■5-6 距離の単位


「測定システム」ボタンを実行します。
距離の単位を指定します。

  • ・メトリック

  • ・インペリアル

  • ・自動


メートル法に固定したければ「メトリック」を選択します。



__________目次の先頭へもどる__________

■5-7 ズームと超広角モードの切り替え


iPhoneの背面カメラのモードを指定することができます。

「サブズームモード」ボタンを実行します。

「超広角・0.5倍」
「カメラズーム・2倍」
どちらかを選択状態にします。

これにより、トップ画面の最下行に配置されているボタンの名前が変わります。
距離を短くして広い視野でタグを見つけようとするか、
視野は狭くなるけれども通常の距離の2倍の先にあるタグを見つけるか、
都合のよい方を指定しておきます。



__________目次の先頭へもどる__________

■5-8 ハンズフリーモード


「画面・接近を感知」ボタンを実行します。
iPhoneを手に持たず、胸ポケットやポーチにいれて使用するときに便利なモードです。

「フロントセンサーが何かの接近を感知すると画面をオフにする」のオン・オフ切り替えボタン

この箇所をオンにしておくと、
たとえば胸ポケットにiPhoneを入れておくと、前面カメラは体に密着していることになるので、近接センサーが感知してハンズフリーモードになります。

タッチパネルに何かが当たっても、誤動作を防ぐことができます。

また、ハンズフリーモードで使用中、スキャンを停止するには、前面カメラを2秒手で覆い隠します。
「スキャンの停止」というアナウンスが聞こえて、バッテリーの消費を気にしなくてもよくなります。

再びスキャンを開始するには、デバイスの背面を何回かタップするか、
あるいはシェイクします。



__________目次の先頭へもどる__________

■5-9 点字ブロックに沿って歩く「ガイド」モード


「ガイド」ボタンを実行します。
点字ブロックに設置されたNaviLensコードを読み取ることで、次の場所への方向をガイドしてくれます。

「点字ブロックガイド」のオン・オフ切り替えボタン
この箇所をオンにします。

点字ブロックに沿って歩いていると、一方向だけの案内をしてくれるだけでは不十分です。そこで、4方向からタグを読み取ることで、それぞれ4種類の案内をしてくれます。
この機能はパーソナルタグでは利用できません。

マドリードのプエルタ・デ・アトーチャ駅にて、NaviLens点字ブロックガイドを利用 - YouTube
https://www.youtube.com/watch?v=iRz90iYnMss

点字ブロックとナビレンス - 三宅精一氏に捧ぐ? - YouTube
https://www.youtube.com/watch?v=w263MnFwmiE



__________目次の先頭へもどる__________

■6 パーソナル利用のタグを入手する


パーソナル用のタグは2種類リリースされています。
開発者にリクエストを送信すると、タグの印刷されたPDFファイルがメール送信されてきます。



__________目次の先頭へもどる__________

■6-1 基本タグ


トップ画面の中で
「メインメニュー」ボタンを実行します。
次に、
「タグを取得 パーソナルユース」ボタンを実行します。

ブラウザが起動します。
名前とメールアドレスを入力して、
「タグを受け取る」ボタンを実行して送信します。

七つのPDFファイルが添付されたメールが届きます。
メール本文は英語です。

一つのPDFファイルはユーザマニュアルで、残り六つがNaviLensの専用タグとなっており、印刷して使います。
大きなサイズはA4用紙1枚のタグ、小さなサイズはA4サイズを64当分に切り分けるようになっています。



__________目次の先頭へもどる__________

■6-2 2020年にリリースされた基本タグ


新しくリリースされた基本タグでは、それぞれのサイズが大きくなったことで、より離れた場所から検知しやすくなったそうです。

次のウェブサイトでリクエストします。


Request free NaviLens personal codes
https://docs.google.com/forms/d/e/1FAIpQLScG4pyk3F9O0EYM2XkP3jZqONz7YPb9sVw8YBe3KgF6u_VLrQ/viewform

メールアドレスと住んでいる市町村の名前をタイプして申し込むアンケート的なページになっていますが、国名を書いてもよさそうです。

送信ボタンを実行すると、リクエストが送信されます。



__________目次の先頭へもどる__________

■6-3 印刷したタグの切り分け方


入手したタグの書かれたPDFファイルを印刷するわけですが、
視覚障害者にとってやっかいなのは印刷した紙を切り分けることについてです。

それについては動画で説明されています。

NaviLens・ナビレンスパーソナルユース無料タグのダウンロードと使用方法 - YouTube
https://www.youtube.com/watch?v=L7UpVWC3R1k&feature=youtu.be

たとえば、A4サイズに4枚のタグが印刷されている場合、横に半分、次に縦に半分、つづいてそれをカット。

16枚のタグの用紙であれば、さっきの方法で4当分したものを、同じ手順で4当分してカット。
64枚の用紙であれば、同じような手順で16当分したものをさらに4当分にするという感じです。



__________目次の先頭へもどる__________

■7 パーソナルメモについて


タグにはテキストでメモを入力できるようになっています。
パブリック利用やビジネス利用のタグの場合、すでに書き込まれている情報に対してパーソナルメモを加えることになります。

入手したパーソナル利用のタグはなんの情報も入っていません。
物の管理をしたい場合であれば、商品の名前などを入力しておくとよいでしょう。

パーソナルメモは削除や編集も可能です。
また、5任のユーザーとその内容を共有することができます。



__________目次の先頭へもどる__________

■7-1 タグにパーソナルメモを記録する


タグの詳細情報の画面を表示する必要があります。
詳細情報の画面では、下端に四つのボタンが横に並んでいます。
  • ・選択を閉じる

  • ・パーソナルメモ

  • ・タグを消去

  • ・タグの再読み込み


パーソナルメモを作成してみましょう。

  • 1. タグを読み取ります。


  • 2. 読み取った内容が表示されている箇所を実行します。
    画面の上部、ステータスバーの下辺りに表示されています。
    VoiceOverカーソルをすぐにフォーカスさせるには、画面の上半分で4本指のシングルタップです。


  • 3. 「パーソナルメモ」ボタンを実行します。
    テキストフィールドに記録したい内容を入力して、「同意する」ボタンを実行します。


  • 4. 「選択を閉じる」ボタンを実行してトップ画面に戻ります。


タグの詳細情報の画面を表示する方法はもう一つあります。
読み取ったタグの内容が表示されている箇所で、1本指の下スワイプか上スワイプを行います。
「注記」という読み上げを確認したら、1本指でダブルタップします。
上記と同じ手順でメモを書き込むことができます。


パーソナルメモの内容を編集したり削除するには、
タグの詳細情報の画面で行います。

「パーソナルメモ」ボタンを実行すると、テキストフィールドが表示されるので、
その内容を編集できます。

パーソナルメモの内容を削除するには、「同意する」ボタンの代わりに
「消去」ボタンを実行します。



__________目次の先頭へもどる__________

■7-2 パーソナルメモの内容を他のユーザと共有する


パーソナルメモの内容は基本的に一人のユーザだけが利用する目的で記録できるようになっていましたが、
2020年7月23日のバージョンでは、5任のユーザとの間で共有できるようになりました。

まずは自分のアカウントを作成し、
共有したい相手から登録してもらう手続きが必要になります。

共有している相手はあなたのことをフォローしている、つまりフォロワーという立場になります。
フォロワーはあなたが作成したタグのパーソナルメモをすべて閲覧できるようになります。



__________目次の先頭へもどる__________
■7-2-1 アカウント作成

パーソナルメモの共有機能を利用するには、お互いのユーザーがNaviLensのアカウントを作成してログインしておくことが必要になります。

アカウントを作成するには、NaviLensアプリのトップ画面で、
「メインメニュー」ボタンを実行します。
「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」ボタンを実行します。

  • 1. 三つの方法が用意されています。
    ・Appleでサインアップ
    Google アカウントでサインイン
    ・メールアカウントでサインイン


  • 2. ここでは、メールアカウントでサインインしてみることにしましょう。
    「メールアカウントでサインイン」ボタンを実行します。


  • 3. 次の画面では、メールアドレスとパスワードをタイプする画面が表示されます。
    ここでのパスワードとは、NaviLensのアカウント用のパスワードなので、好みのパスワードをタイプします。
    「ログインする」ボタンを実行します。


  • 4. メッセージが表示されますが、
    「同意する」ボタンを実行します。


  • 5. 自分の名前、ユーザー名をタイプするテキストフィールドが表示されます。
    ニックネームでもかまいません。
    「アカウントを作成する」ボタンを実行して、次に進みます。


  • 6. 画面は「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」に戻っています。


  • 7. 登録したメールアドレス宛には確認メールが送信されてきます。
    件名は日本語になっていないかもしれませんが、本文は日本語です。
    認証するためにhttpsで始まるurlを実行しておくことが必要です。




__________目次の先頭へもどる__________
■7-2-2 「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」の画面レイアウト

次のボタン類と内容が表示されています。

  • ・設定 ボタン

  • ・マイパーソナルメモを共有する ボタン

  • ・ユーザー名

  • ・メールアドレス

  • ・マイパーソナルメモ ボタン

  • ・フォロー中 ボタン

  • ・フォロワー ボタン

  • ・タグを取得 ボタン

  • ・ログアウト ボタン




__________目次の先頭へもどる__________
■7-2-3 共有したい相手から登録してもらう

自分のパーソナルメモを共有するには、事前に相手からフォローされる、登録されている必要があります。
フォローされるには、自分のNaviLensアプリの画面上に表示させたコードを相手に読み取ってもらいます。
相手もNaviLensのアカウントでログインしていることが必要です。

  • 1. 「マイパーソナルメモを共有する」ボタン
    を実行すると、画面上に登録用のコードが表示されます。
    スクリーンカーテンはオフにしておいてください。


  • 2. 相手のデバイスでNaviLensアプリを開き、
    通常のNaviLensコードを読み取るように自分のデバイスの画面をスキャンしてもらいます。
    コードが無事に読み取られると、効果音が鳴り、メッセージで確認できます。
    相手のNaviLensアプリでは自動的に登録が完了します。


  • 3. 自分のデバイスで、
    「同意する」ボタンを実行しておきます。



自分が作成したパーソナルメモ付きのタグを相手にスキャンしてもらうと、
自分のユーザ名とそのメモの内容が表示されます。
相手が自分のパーソナルメモの内容を編集することはできません。
ただし、相手はそのタグに対して別のハーソナルメモを追加することはできます。



__________目次の先頭へもどる__________
■7-2-4 共有関係にあるユーザーを管理する

前述した方法で、自分が共有したい相手から登録された場合、
自分はその人にフォローされていると表現できます。

「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」の画面の中で、
「フォロワー」ボタンを実行すると、
フォローされているユーザーの名前を確認できます。
削除したい場合は、
1本指の上スワイプか下スワイプで
「消去」と読み上げられたら、1本指ダブルタップで実行します。


また、自分が他のユーザーをフォローしている場合、
「フォロー中」ボタンを実行すると、
自分がフォローしているユーザーの名前を確認できます。
消去する手順は上記と同じです。



__________目次の先頭へもどる__________
■7-2-5 作成したパーソナルメモの表示と編集

タグに対して作成したパーソナルメモは、
「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」の画面で一覧表示させることができます。
また、編集捜査も可能です。

「マイパーソナルメモ」ボタンを実行すると、
パーソナルメモが一覧表示されます。

いちいちタグをスキャンしてメモの編集や削除の操作をする手間がなくなります。



__________目次の先頭へもどる__________
■7-2-6 共有しているパーソナルメモの読み上げ方法の設定

一つのタグにたいして自分が作成したパーソナルメモだけを読み上げさせるか、
フォローしているユーザーが作成したパーソナルメモもいっしょに確認できるようにするか、
そのような指定ができるようになっています。

「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」の画面の中で、
「設定」ボタンを実行します。
  • ・「マイパーソナルメモのみ表示」のオン・オフ切り替えボタン

  • ・「常にマイパーソナルメモを優先表示」のオン・オフ切り替えボタン

  • ・「パーソナルメモの最終更新日時を隠す」のオン・オフ切り替えボタ


上記のオプションが用意されています。



__________目次の先頭へもどる__________

■8 パブリック利用のタグを入手する


パブリック利用のタグはウェブサイトから申し込みます。
2021年2月7日の時点では、学校とアソシエーション(施設・協会)、2種類の基本情報が記録されたタグだけを申し込むことが可能です。

たとえば、教室やトイレなど、学校施設にある部屋の名前などが記録されたタグを入手できるわけです。
それらのタグをドアなどに張り付けておけば、壁を手探りしなくてもスマートフォンのカメラで目的の部屋を見つけることができるでしょう。

ナビレンス-あなたの生活にタグを
https://free.navilens.com/

上記サイトで、名前とメールアドレスを入力し、
キットを選ぶボックスで、学校かアソシエーションを選びます。
言語を選ぶボックスで、日本語が選ばれているかどうかも確認しておきます。
「使用規約に同意しますか」のチェックボックスにチェックを着けます。

「ダウンロード」ボタンを実行します。

基本情報が記録されたタグ(PDFファイル)はZIP圧縮されて、入力したメールアドレスに届けられます。

それぞれのタグのファイル名は英語になっていますが、PDFファイルを開くと日本語で表記されていることがわかります。
たとえば、
Dining_room_AAB007_210.pdf
このファイルを開くと「食堂」と書き込まれています。

NaviLensアプリでタグを見つけると「食堂」という読み上げを確認することができます。
iPhoneの言語環境を英語にしていれば、
「Dining room」と読み上げます。



__________目次の先頭へもどる__________

■9 検出したタグの位置を逃さない、360ビジョンを利用する


NaviLensタグを検出してその場所に歩いていこうとする場合、常にその方向にカメラが向いていなければなりません。
ハンズフリーモードで使用していたとしても、途中で体の向きを変えなければならないこともあるでしょう。そんな時は再びタグを検出しなければなりません。

そういった時に役立つのが360ビジョンの機能です。
検出したタグの位置を一時的に記録してくれるので、カメラが別の方向に向いてしまっても、サウンドや振動を頼りにいつでも確認できる状態になります。


360ビジョンのモードに切り替えるには、二つの方法があります。
一つ目は、
アプリのトップ画面で、画面の右下端にある
「360ビジョン」ボタンを実行します。
ショーンという効果音が鳴り、モードが切り替わったことを確認できます。

二つ目は、ジェスチャを利用します。
アプリのトップ画面で、
3本指の左スワイプをおこないます。
これで360ビジョンのモードに切り替わります。

通常の検出画面に戻るには、三つの方法があります。
・画面の左上端の「戻る」ボタンを実行する。
・スクラブのジェスチャ。
・3本指で右スワイプ。


ちなみにマグネットタグという特別なタグを検出したときには、自動的に360ビジョンのモードに切り替えるオプションが用意されています。
バルセロナではバス停など使用頻度の高い場所にマグネットタグが設置されているそうで、ユーザは手動でモードを変更する必要がなくなるわけです。
マグネットタグとは、磁石のように反応してくれるタグという比喩表現のようです。



__________目次の先頭へもどる__________

■9-1 360ビジョンでタグを読み取ってみよう


通常のタグ検出と同じ操作で、背面カメラで見回します。
検出されると、にぎやかなドラムサウンドとともに、カーン・カーンというベルのサウンドが聞こえます。

カメラをタグのある場所から別の方向に向けてみましょう。
ベルの音は聞こえず、ドラムサウンドだけが聞こえます。
そして、ガイド音声がタグまでの距離や方向を案内してくれることでしょう。
タグの方向にカメラを向けると、ベルの音と振動で合図してくれます。

つまり、検出したタグを見失ったとしても、アプリはその場所を覚えているので、サウンドと振動でいつでも同じタグを見つけられるわけです。

ステレオヘッドセットを装着していれば、3Dオーディオにより、ドラムサウンドはタグのある方向から聞こえてきます。
ドラムサウンドの聞こえる側にカメラを向けて、ベルの音と振動のフィードバックを探せばよいのです。



__________目次の先頭へもどる__________

■9-2 360ビジョンで検出したタグをロックオン


360ビジョンでタグを検出して、そのタグを探している途中で、別のNaviLensタグが見つかるとどうなるでしょうか?
新しいタグの場所を覚えてしまい、一つ前のタグの場所が分からなくなってしまいます。
それを防ぐためには、タグを検出した時点でロックしてしまいます。
ロックしてしまうと、新しいタグを検出しないようになります。

ロックするには二つの方法があります。

一つ目は、画面の右上近くにある
「コードのロック」ボタンを実行します。

二つ目は、ジェスチャを利用します。
2本指のダブルタップ。


ロックを解除するには、二つの方法があります。
・「コードのロックを解除」ボタンを実行する。
・2本指のダブルタップ。



__________目次の先頭へもどる__________

■10 関連情報


公式サイトは日本語で表示されます。
NaviLens EMPOWERING the visually impaired
https://www.navilens.com/

NaviLens - YouTube
https://www.youtube.com/channel/UCW7Ff1wAabrO0iyIgubUW9w

MIT Tech Review: スマホが視覚障害者の目に、バルセロナに広まる新しい点字
https://www.technologyreview.jp/s/146088/these-colorful-stickers-are-helping-blind-people-find-their-way-around/

Drafts about A11Y: スペイン発。視覚障害者をカラフルに誘導する「Navilens」。
https://accessibility-tech.blogspot.com/2019/06/navilens.html

<障害のある方やすべての方へ>タグで情報提供。屋内を含む案内が可能な「NaviLens」/わたし達の未来をつくる「アイデアソン・ハッカソン」
http://www.mirai-commons.com/blog20191220.html

視覚障害者の彫刻鑑賞 音声でサポート 長泉・ヴァンジ美術館 アプリ導入へ|あなたの静岡新聞
https://www.at-s.com/news/article/topics/shizuoka/848650.html

神戸新聞NEXT|医療ニュース|スマホで視覚障害者の街歩き手助け タグ読み取り音声案内 神戸で実証実験
https://www.kobe-np.co.jp/news/iryou/202012/0013959032.shtml

Eyes On Success with hosts Peter and Nancy Torpey (1935 NaviLens Navigation System (Aug. 28, 2019))
http://podcast.EyesOnSuccess.net/eos_1935-navilens-navigation-system-aug-28-2019_podcast.mp3

Assistive Technology Update with Josh Anderson (ATU441 - NaviLens with Lamar Johnson)
http://feedproxy.google.com/~r/AssistiveTechnologyUpdate/~3/Htk0S_q-Xdw/

NaviLens ? The new smart digital signage for everyone! Or, as we say, QR Codes on Steroids! Free App on iOS and Android
https://blindabilities.com/?p=6584

Drafts about A11Y: 欧州で2022年からケロッグの全てのシリアル製品にnavilensのコードが導入される。視覚障害者の食料購入を便利に。
http://accessibility-tech.blogspot.com/2021/07/2022navilens.html



__________目次の先頭へもどる__________

posted by @voice_of_i at 00:00| Comment(0) | 生活に役立つアプリ | このブログの読者になる | 更新情報をチェックする

2021年06月07日

目の前の様子をちょこっと観てもらえる視覚支援アプリ「Be My Eyes Version 3.6.10」 with iOS 14.6 VoiceOver


このアプリは、iPhone 12 Pro, iOS 14.6のボイスオーバー環境で読み上げ操作を確認しています。
使用しているアプリのバージョンは3.6.10です。


目の前にある商品の名前が分からない、
入り口が分からずにその店の前を何度も行ったり来たり
パソコンソフトを買ったのにシリアル番号が確認できなくてインストールできない、

視覚に障害のある人は、そんな不便を何度も経験したことがあるでしょう。


一報で、
レストランのメニューにあんなにも顔を近づけている人は何をしてるんだろう、
白い杖を持った人が道に迷っているような雰囲気だけど、どうやって声をかけようか、
そんなことを感じた人は多いかもしれません。


このアプリでは、ビデオ通話を通して、カメラに写っている情報を見えている人に教えてほしいと頼むことができ、ボランティアはその依頼に答えることのできるシステムを提供してくれます。

デンマークで開発され、今では世界中で使われています。
クラウドファンディングで資金を集め、サービスが開始されました。
2015年にiOSアプリがリリースされ、2017年10月5日にはAndroidアプリがリリースされました。

このアプリでサポートしてほしいというリクエストを発信できるのはまったく目の見えない人だけとは限られていないので、
色の識別が苦手な人、
文字を読み上げてもらった方が理解しやすい人、
そんな人たちでも便利に活用できることでしょう。

iOSアプリは、
「Be My Eyes ? Helping blind see」をApp Storeで
https://apps.apple.com/jp/app/be-my-eyes-helping-blind-see/id905177575

Androidアプリは、
Be My Eyes - helping the blind see - Google Play の Android アプリ
https://play.google.com/store/apps/details?id=com.bemyeyes.bemyeyes






__________目次の先頭へもどる__________

■■1 はじめに


身の回りには視覚を必要とする物であふれています。
お店の看板、
家電製品リモコンの操作ボタン、
服に付いたシミや汚れ、
などなど。

ちょっとだけ観てほしいなぁ、でも、なんとなく申し訳ないなぁ…
お願いする側としては気を遣ってしまいます。
また、近くに頼める人がいない場合も多々あります。

そんな悩みを解決してくれるのがこのアプリ「Be My Eyes」(私の目になって)です。

サポートしてくれるのは、今なら時間あるので観ることはできますよ、と意思表示してくれている人たちです。
いやいやながらにヘルプに応対してくれているわけではありません。

ボランティアの人が忙しい時はビデオ通話に応答しなければよいという仕組みです。
なので、通話先のボランティアは快く、ヘルプしてほしい人の目の前の様子を教えてくれることでしょう。

お互いが変な気を遣わずに利用できるサービスになっているのです。



__________目次の先頭へもどる__________

■■2 サポートを受けたい人が使う場合


サポートを受けるには、自分の情報を登録して、後はリクエストを発信するだけの操作手順となります。



__________目次の先頭へもどる__________

■2-1 自分の役割を登録しよう


初めてアプリを起動すると、利用規約に同意する必要があります。
画面の下端にある「同意する」ボタンを実行して次に進みます。

自分がサポートを受けたい人か、サポートをしたい人かを登録します。

  • 1. サポートを受けたい人は
    「視覚補助が必要です」ボタンを実行します。
    実際にその人が視覚障害者かどうかを確認しているわけではないので、だれかの視力を借りて何かを見てほしい、読んでほしいとお願いしたい人も登録できます。



  • 2. 説明文が表示されます。
    新しく登録する人は、
    「新規ユーザ」ボタンを実行します。
    すでに登録している人は、
    「サインイン」ボタンを実行します。



  • 3. 新規ユーザとして登録してみましょう。
    Apple ID、Facebookアカウント、Googleアカウント、あるいはEmailアドレス、いずれかの方法で登録できます。



  • 4. メールアドレスで登録してみましょう。
    名、姓、メールアドレス、パスワードをそれぞれタイプします。
    パスワードは自分で好きなものを入力してください。



  • 5. 登録したメールアドレスにBe My Eyesから「ご利用のメールアドレスを確認してください」という件名のメールが届きます。
    メールアプリを開いて、本文内の
    「このリンクを開いてメールアドレスを確認してください」というリンクを実行します。
    Safariが起動して、確認作業は完了です。



  • 6. Be My Eyesアプリの画面を開きます。
    自分の話す言語を指定する画面が表示されているので、
    「日本語」の箇所を実行します。



  • 7. マイクとカメラの使用を許可するための手続きが必要になります。
    「アクセスを許可する」ボタンを実行します。



  • 8. 二つのボタンが表示されています。
    「初めての通話」ボタンを実行すると、ボランティアにビデオ通話を発信できます。
    「スキップ」ボタンを実行すると、アプリのトップ画面を表示します。
    ここでは
    「スキップ」ボタンを実行しておきましょう。



  • 9. メールによるニュースレターを購読するかどうかの確認が表示されます。
    「はい、登録します」ボタン
    「後で」ボタン
    ニュースレターは英語で届けられます。
    どちらかのボタンを実行してください。


これで利用を開始する準備完了です。
アプリのトップ画面が表示されます。



__________目次の先頭へもどる__________

■2-2 トップ画面の構成


アプリのトップ画面には、最下行に二つのタブ切り替えボタンが表示されています。

画面の左下端にある「ホーム」タブが選択状態になっていれば、ボランティアにリクエストを発信できる状態です。

画面の右下端にある「ストーリー」タブが選択状態になっていると、体験談を投稿したり、投稿された体験談を読むことができます。


普段は「ホーム」タブを選択状態にしておきます。
この画面では、

  • ・設定 ボタン
    画面の左上端に配置されています。
    各種設定メニューを表示します。


  • ・応答可能なボランティアに接続 ボタン
    ビデオ通話を発信します。


  • ・スペシャライズドヘルプ ボタン
    言語設定によってはこのボタンは表示されません。
    契約している企業などのサポートセンターや、不定期で開催されるイベントにビデオ通話を発信します。




__________目次の先頭へもどる__________

■2-3 リクエストを発信する


さて、実際の使用法は、アプリのトップ画面で、
「応答可能なボランティアに接続」ボタン
を実行するだけです。
ボタンの位置は画面の中央です。
通和音が流れて、サポート可能な人につながり、音声通話ができるようになります。

相手には、iPhoneの背面カメラの映像が映し出されます。
また、登録した自分のファーストネームだ相手の画面に表示されます。

観てもらいたいものをカメラに写して、会話をしながらサポートしてもらうことができます。

切断する時は、
「通話を終了」ボタン
次に、
「はい」ボタンを実行します。

通話を終了する操作がうまくいかなければ、相手の方で先に通話終了してもらうようにお願いするとよいでしょう。



__________目次の先頭へもどる__________

■2-4 サポートしてほしい言語を切り替える


このアプリは世界中の人にサポートしてもらうことができますが、指定した言語の人にのみ繋がる仕組みです。
初期設定では主要な言語として、日本語を設定しました。
それに加えて、複数の言語を指定しておくことができます。

言語の切り替えや追加は、
「設定」ボタンを実行して、
「主要言語」ボタンを実行して、目的の言語を選択状態にします。
これが第一言語、優先される言語となります。

「その他の言語」ボタンを実行すると、複数の言語を選択できます。

複数の言語を選んでいる場合、ビデオ通話を発信すると、まず優先される言語のボランティアにつながろうとします。
もしその言語のボランティアにつながらなければ、その他の言語で指定した言語を話すボランティアにつながります。



__________目次の先頭へもどる__________

■2-5 Siriで呼び出すための「Siriショートカット」


Siriにリクエストするフレーズを登録することで、簡単にボランティアにビデオ通話を発信することができます。
iPhoneのロックを解除しておく必要がありますが、ホーム画面からでも、他のアプリを表示している状態でも、Siriにそのフレーズをリクエストすれば直接アプリが起動して、通話を発信してくれるという流れです。

設定するには、
「設定」ボタンを実行して、
「Siriのショートカット」ボタンを実行して、
「ボランティアに通話する」ボタンを実行します。

テキストフィールド内にリクエストしたいフレーズをタイプします。
デフォルトでは、
「ボランティアに通話する」
となっています。

「Siriに追加」ボタンを実行すれば完了です。
Siriにそのフレーズで話しかけて、そのアクティビティが実行されるかどうか確かめてみてください。

声ではなく、タイプ入力でSiriにリクエストする設定にしている場合は、そのフレーズをタイプします。



__________目次の先頭へもどる__________

■■3 サポートをしたい人が使う場合


サポートをするには、自分の情報を登録して、後はビデオ通話がかかってくるのを待つだけの操作手順となります。



__________目次の先頭へもどる__________

■3-1 自分の役割を登録しよう


初めてアプリを起動すると、利用規約に同意する必要があります。
画面の下端にある「同意する」ボタンを実行して次に進みます。

自分がサポートを受けたい人か、サポートをしたい人かを登録します。


  • 1. サポートをしたい人は
    「ボランティアとして参加したいです」ボタンを実行します。



  • 2. 新しく登録する人は、
    「新規ユーザ」ボタンを実行します。

    すでに登録している人は、
    「Sign in」ボタンを実行します。



  • 3. 新規ユーザとして登録してみましょう。
    Apple ID、Facebookアカウント、Googleアカウント、あるいはEmailアドレス、いずれかの方法で登録できます。



  • 4. メールアドレスで登録してみましょう。
    名、姓、メールアドレス、パスワードをそれぞれタイプします。
    パスワードは自分で好きなものを入力してください。



  • 5. 登録したメールアドレスにBe My Eyesから「ご利用のメールアドレスを確認してください」という件名のメールが届きます。
    メールアプリを開いて、本文内の
    「このリンクを開いてメールアドレスを確認してください」というリンクを実行します。
    Safariが起動して、確認作業は完了です。



  • 6. Be My Eyesアプリの画面を開きます。
    自分の話す言語を指定する画面が表示されているので、
    「日本語」の箇所を実行します。



  • 7. マイクとカメラの使用を許可するための手続きが必要になります。
    「アクセスを許可する」ボタンを実行します。



  • 8. 「OK」ボタンを実行します。



  • 9. メールによるニュースレターを購読するかどうかの確認が表示されます。
    「はい、登録します」ボタン
    「後で」ボタン
    ニュースレターは英語で届けられます。
    どちらかのボタンを実行してください。


これで利用を開始する準備完了です。
アプリのトップ画面が表示されます。



__________目次の先頭へもどる__________

■3-2 サポートする言語を切り替える


このアプリでは世界中の人からサポートのリクエストが届きますが、指定した言語の人からのみリクエストが届く仕組みになっています。
複数言語を話せる人向けには、好きな言語を指定しておくことができるようになっています。

画面の右上端にある
「設定」ボタンを実行します。

「主要言語」ボタンを実行して、目的の言語を選択状態にします。
これが第一言語、優先される言語となります。

「その他の言語」ボタンを実行すると、複数の言語を選択できます。



__________目次の先頭へもどる__________

■■4 リクエストノ流れ


通話が届いたときの体験練習をできる仕組みが用意されています。
アプリの画面で、
「通話に応答するための方法を練習します」ボタンを実行すると、その手順が表示されます。
ホーム画面を表示したとき、デバイスを画面ロックしたとき、
それぞれのタイミングで通知が送られて、それに応答するとビデオが再生されるという仕組みです。
実際の通知がやって来る前に試しておくとよいでしょう。

視覚障害者がサポートしてほしいとリクエストすると、そのお知らせは一度に10人のボランティアに届くそうです。
しばらくしても応答されなければ、自動的に次の10人にお知らせが送信されます。

ボランティアの側の端末は画面ロックになっていても、他のアプリをしようしている時でも、その通知がサウンドとメッセージで表示されます。
応答できない場面ではそのままにしておくと通知は消えます。
ボランティアの人にとっては、サポートしてもよいという時だけ応答すればよい訳です。
サポートした回数に応じてバッジが増えていくので、楽しみながらサポートできる仕組みになっています。

夜の間はボランティアに通知が届かないようにお休みタイムが設定されていて、午後22時から午前7時までとなっています。
リクエストする側は24時間ビデオ通話を発信できますが、自分で済んでいる地域がお休みタイムの間は他の地域の人が応答してくれます。
しかし、他の地域に住んでいる日本語ボランティアの数は少ないと思われるので、その時間帯に日本語ボランティアにつながる確率は低いと思われます。



__________目次の先頭へもどる__________

■■5 おわりに


携帯電話にテレビ電話機能が搭載された時代、いち早く同じコンセプトの遠隔サポートが実現できないものかと考えられていました。

筑波大学付属盲学校の元教諭である
長谷川貞さん
https://ubq-brl.at.webry.info/
が考案された「テレサポート」です。

当時はサポートしてくれる人の確保や、高額な通話料金の問題などで、一般的には普及しなかったと思われます。

今ではiPhoneなどのスマートフォンが普及したことで、FacetimeやSkypeなどによるビデオ通話がコストを気にせずに利用できるようになりました。

Be My Eyesの特徴は、
特定の人を選ばずにサポートをお願いすることができる。
世界中の人が対象である。
サポートをする人は、自分の好きな時間帯にちょこっとヘルプすることができる。

このような「ちょこっとボランティア」のことを、マイクロボランティアと呼ばれているそうです。

ボランティア活動をしている人の仲には、相手が求めている以上の使命感や責任感を抱いてしまうケースがあるようです。自分の時間を惜しんでまで働いてしまうということも。
サポートを受ける人は、それを感じて気が引けてしまうこともあるでしょう。

お互いが気楽に頼み頼まれるサービス、
Be My Eyesではそれを実現してくれそうに思います。



__________目次の先頭へもどる__________

■■6 関連情報


ツイッターのアカウント
Be My Eyes (@BeMyEyes) | Twitter
https://twitter.com/bemyeyes

クラウドを通じて視覚障害者の「目」となる機能を提供するBe My Eyes | TechCrunch Japan
https://jp.techcrunch.com/2015/01/18/20150116be-my-eyes/

リモートで視覚障害者の目になれるボランティアiOSアプリ「Be My Eyes」 - ITmedia NEWS
https://www.itmedia.co.jp/news/articles/1501/16/news069.html

スマホを通じて目が見えない人の「目」になれるアプリ「Be My Eyes」 - GIGAZINE
https://gigazine.net/news/20150116-be-my-eyes/

A Review of the Be My Eyes Remote Sighted Helper App for Apple iOS | AccessWorld | American Foundation for the Blind
https://www.afb.org/aw/16/2/15488



__________目次の先頭へもどる__________

posted by @voice_of_i at 18:00| Comment(0) | 生活に役立つアプリ | このブログの読者になる | 更新情報をチェックする

2021年05月30日

振動でも伝えてくれる、紙幣識別アプリ「Cash Reader Version 1.44」 with iOS 14.6 VoiceOver

このアプリは、iPhone 12 Pro, iOS 14.6のVoiceOver環境で読み上げ操作を確認しています。

使用しているアプリのバージョンは1.44です。


チェコで開発されているアプリで、積極的にアップデートが行われています。
識別可能な国の通貨も少しずつ増えており、2021年5月現在で100近くの紙幣に対応しています。
iOS版とAndroid版がリリースされています。

公式HPは日本語でも公開されています。

ホーム | Cash Reader Banknote reader application for the blind
https://cashreader.app/ja/


視覚障碍者が旅行に出かけて困るのは、訪問先の国のお金を自力で識別しにくいことです。
国によってはサイズで見分けやすくなっていたり、マークで識別しやすい工夫がされているものもありますが、初めて訪れた国の紙幣の種類を覚えるのはたいへんです。
日本では4種類の紙幣が流通していますが、9種類や11種類などの多くの紙幣が流通している国もあります。同じ金額でもデザインによる違いもあります。

そんなときに活躍するのが紙幣識別アプリです。
カメラでかざした紙幣の種類を読み上げてくれるわけです。

Cash readerの特徴としては、
VoiceOverがオフの環境でも音声で紙幣の種類を教えてくれます。
バイブレーション機能が利用できるので、振動の回数で紙幣を識別できます。
通貨のデータをダウンロードしておけば、インターネット接続を必要としません。

「Cash Reader:紙幣を識別」をApp Storeで
https://apps.apple.com/jp/app/cash-reader-%E7%B4%99%E5%B9%A3%E3%82%92%E8%AD%98%E5%88%A5/id1344802905

アプリは無料で入手できますが、識別できるお札の種類には制限があります。
たとえば日本円の場合は、千円札のみが識別可能です。
アプリ内課金によりフルバージョンを購入することで、すべての種類の紙幣に対応します。
また、1か月プラン、1年プランも用意されています。
小旅行の場合は1か月プランをアプリ内課金しておくとたいへん役に立つことでしょう。

Android版のダウンロード先は
Cash Reader:紙幣を識別 - Google Play のアプリ
https://play.google.com/store/apps/details?id=com.martindoudera.cashreader&hl=ja







__________目次の先頭へもどる__________

■1 アプリを起動する


インストール直後、初めてアプリを起動すると、
「カメラのアクセスを許可する」ボタンを実行して、カメラの仕様を許可する必要があります。

識別したい通貨を選びます。後程設定メニューの中でも選ぶことができるので、ここでは、
「日本円を選ぶ」ボタンを実行しておきましょう。

日本円のデータがダウンロードされます。
「続ける」ボタンを実行します。

アプリの仕様規約が表示されます。
「同意し、アプリの使用を開始する」ボタンを実行します。

これでアプリのメイン画面が表示されます。



__________目次の先頭へもどる__________

■2 紙幣を識別する操作


メイン画面において、カメラを紙幣に向けてかざすだけの操作です。
通貨の種類、紙幣の額を音声で読み上げてくれます。
VoiceOverがオフの環境でも音声で読み上げてくれます。

暗い場所ではフラッシュライトを自動点灯させるかどうかの設定ができます。

バイブレーション機能をオンにすれば、振動の回数で紙幣の種類を識別することができます。
音声読み上げをさせたくない場合は、サイレンとモードにすることで振動のみで識別できます。

振動で確認する場合、すべての通貨を認識するモードでは機能しません。
一つの通貨だけを識別するように指定しておく必要があります。



__________目次の先頭へもどる__________

■3 設定メニュー


メイン画面に表示されている「設定」ボタンを実行すると、メニューが表示されます。
アプリ内課金もこの中で行います。

「通貨を選ぶ」ボタン
すべての通貨を識別対象にするか、一つだけを対象にするか指定できます。
バイブレーション機能を利用するには、一つの国の通貨だけを指定しておく必要があります。また、誤認識を防止することにもなるので、必要なければ一つの国だけを指定しておくとよいでしょう。


「バイブレーション設定を開く」ボタン
すべての国の紙幣を識別対象にしている場合は、このメニューは表示されません。
ここでは、指定した通貨の振動パターンを確認することができます。
また、振動のパターンや感覚の長さを変更できます。
サイレンとモードのときだけ機能させるか、常に振動させるかを選べます。


「Siriショートカットを作成」ボタン


「画面の色」ボタン
画面の色を変更します。
白黒表示にするか、初期設定にするか、指定します。


「フラッシュライトの自動点灯」
・暗いところではオンにする、
・常にオフにする、
・常にオンにする、
3パターンの中から指定します。


「識別中の発信音」
紙幣識別中に効果音を鳴らすかどうかの設定です。
発信音をオンにするかオフにするかを指定します。


「カメラの切り替え」
前のカメラか後ろのカメラか、どちらを使うか指定します。


「サイレントモード」
サイレントモードのときの通貨の通知方法を指定します。
・音声で知らせる
・バイブレーションで知らせる
・ハードウェアボタンで識別方法を変更


「紙幣の識別方法」
識別したときに読み上げる内容を指定します。
・・紙幣だけ通知 (たとえば、千)
・・紙幣と通貨を通知 (たとえば、千円)


「アプリの言語を設定する」
Cash Readerアプリのメニュー言語を変更できます。


「検証のための写真を送信」
メイン画面に、「検証のための写真を送る」ボタンを表示するか隠すかを指定できます。
間違えた金額として紙幣を識別した場合に、送るボタンを実行することで、懸賞のためにその紙幣の写真を送信することができます。
アプリの改善に役立てられます。



__________目次の先頭へもどる__________

posted by @voice_of_i at 01:01| Comment(0) | 生活に役立つアプリ | このブログの読者になる | 更新情報をチェックする

2021年02月05日

エンビジョングラスとビデオ通話する相手を協力者として登録する方法、協力者が使用するアプリ「Envision Ally Version.0.2.5」 with iOS 14.4 VoiceOver

エンビジョングラスを利用してビデオ通話できるのは、協力者(Ally)として登録している人に対してです。
視覚障害ユーザが目の前の物を見てほしい時、読んでほしい場面など、
信頼できる人に協力をお願いできるわけです。

協力者はスマートフォンに無料のEnvision Allyアプリをインストールしておき、通話が届いたことを通知で確認できます。
そして、Envision Allyアプリを通してビデオ通話することになります。

iOS版とAndroid版がリリースされています。
ここでは、iOS版のバージョン0.2.5のアプリで操作を確認しています。

iOS版「Envision Ally」」
https://apps.apple.com/jp/app/envision-ally/id1525230292

Android版「Envision Ally」
https://play.google.com/store/apps/details?id=com.letsenvision.ally&hl=ja&gl=US





__________目次の先頭へもどる__________

■1 Envision Allyのアカウントを作成する


アプリは無料で利用できますが、ユーザアカウントを作成する必要があります。
メールアドレスを使って登録してみましょう。

1. 複数の手段でアカウントの作成はできます。
メールアドレスで登録するには、
「Sign in with email」ボタンを実行します。

2. 三つのテキストフィールドが表示されます。
名前(ニックネームも可)、メールアドレス、パスワードをタイプします。
「Create Account」ボタンを実行します。

3. 無事にアカウントが作成できるとメッセージが表示されます。
「Continue」ボタンを実行します。

これで登録手続きは完了です。



__________目次の先頭へもどる__________

■2 メイン画面のレイアウト


Envision Allyアプリのメイン画面に表示されている内容は、
  • 自分の名前

  • 自分のメールアドレス

  • 「Envisioners」ボタン 自分が協力できる人の名前を一覧できます

  • 「Settings」ボタン ログアウトできます

  • 「Help」ボタン

  • 「About」ボタン


Envisionersとは、エンビジョングラスのユーザ、つまり視覚障害がありヘルプを求めてビデオ通話を発信する人たちの総称です。
それに対して、Allyとは協力者のことで、かかってきたビデオ通話の映像を見て説明する人たちの総称です。

「Envisioners」ボタンを実行すると、自分宛にビデオ通話を発信してくることのできる人たちの名前が一覧表示されます。

Ally(あなた)が協力者になってもいいよと考えた場合、Envisionersとつながる方法は二つあります。
一つ目は、Envisioners側からリクエストを送信してもらう。
二つ目は、Ally側からリクエストを送信する。



__________目次の先頭へもどる__________

■3 Ally側からEnvisionersにリクエストを送信する


Envision Allyアプリのメイン画面から、
「Envisioners」ボタンを実行します。

1. 「Add an Envisioner」ボタンを実行します。

2. メッセージを送信するための共有メニューが表示されます。
たとえばメールを選んだ場合、
本文には定型文が挿入されるので、件名とメールアドレスをタイプして送信します。
本文には、次の案内文と登録用のURLが記述されています。
「Hi, I would like to be your ally. You can add me through this」
(こんにちは、私はあなたの協力者になりたいです。こちらのリンクから私を追加できます)

3. メールを受け取ったEnvisionerは本文内のURLを実行します。
すると、Envision AIアプリが自動的に開いて、協力者が追加されたことを確認できます。

4. 協力者はEnvision Allyアプリの画面で、追加されたEnvisionerの名前を確認することができます。
メイン画面で、
「Envisioners」ボタンを実行します。
協力者であるAlly(あなた)にビデオ通話を発信できる人の名前が一覧表示されます。



__________目次の先頭へもどる__________

■4 Envisioner側からAllyにリクエストを送信する


視覚障害ユーザであるEnvisionerから協力してほしい人に対してリクエストを送信することができます。

Envision AIアプリを開き、「グラス」タブを選択状態にします。

1. 「機能設定」ボタンを実行します。

2. 「Envision Ally」ボタンを実行します。

3. すでに協力者が登録されていれば、その人たちの名前が一覧表示されています。
リクエストを送信するには、
「協力者を追加」ボタンを実行します。

4. 協力者(Ally)になってほしい人のメールアドレスをタイプして、
「リクエストを送信」ボタンを実行します。

5. リクエストを送信した人がすでにEnvision Allyアプリをインストールしてアカウント作成していれば、自動的にその人は協力者として追加されます。
その人がまだEnvision Allyのアカウントを作成していなければ、アプリをダウンロードしてアカウント登録するようにという案内メッセージが送信されます。



__________目次の先頭へもどる__________

■5 Envisionerが協力者を解除する方法


視覚障害ユーザであるEnvisionerは、登録されている協力者を解除する操作が行えます。
Envision AIアプリを開き、「グラス」タブを選択状態にします。

1. 「機能設定」ボタンを実行します。

2. 「Envision Ally」ボタンを実行します。

3. すでに協力者が登録されていれば、その人たちの名前が一覧表示されています。
解除したい人の名前の箇所で、1本指の下スワイプか上スワイプを行います。
「削除」と聞こえたら、1本指のダブルタップで決定します。

現時点のEnvision Allyアプリのバージョンでは、
協力者であるAlly側で、Envisionerを解除することはできません。



__________目次の先頭へもどる__________

■6 エンビジョングラスからビデオ通話を発信する


エンビジョングラス本体で操作します。

1. メインメニューの中から
「通話」を1本指で2回タップします。

2. 「協力者に通話」を1本指で2回タップします。

3. 登録されている協力者の一覧を確認できます。
1本指の前スワイプか後ろスワイプで移動します。

4. 通話したい人の名前を見つけたら、1本指で2回タップします。
これでビデオ通話が発信されます。

5. 協力者はEnvision Allyアプリをインストールしている端末で通知を受け取ります。
通知のメッセージを実行すると、自動的にEnvision Allyアプリが開き、通話に応答します。
もしEnvision Allyアプリを開いている状態であれば、自動的に通話に応答します。

6. Envision Allyアプリの画面は自動的に横向き表示となり、エンビジョングラスのカメラの映像が表示されます。
通話中の画面には二つのボタンが表示されます。
「Mic on マイクのオン・オフ切り替え」ボタン
「End call 通話終了」ボタン

7. 通話を切断する方法ですが、
エンビジョングラス側で操作する場合は、2本指で下スワイプします。
協力者側で操作する時は、「End call」ボタンを実行します。



__________目次の先頭へもどる__________

■7 関連情報


アクセサリーの紹介 -- Envision AIアプリのチームが開発したスマートグラス「エンビジョングラス」 with iOS Voiceover
http://voicei.seesaa.net/article/479620835.html?1611123444

リアルタイムの文字認識が心地よい、画像をAIが解析してくれる視覚支援アプリ「Envision AI」 with iOS VoiceOver
http://voicei.seesaa.net/article/468826209.html

第21回 エンビジョングラスの紹介 - ニポラチャンネル YouTube
https://www.youtube.com/watch?v=80PraXqKZCI



__________目次の先頭へもどる__________

posted by @voice_of_i at 22:22| Comment(0) | 生活に役立つアプリ | このブログの読者になる | 更新情報をチェックする

2021年01月24日

LiDARスキャナを利用して人と物を検出する視覚支援アプリ「Super LiDAR Version 1.0」 with iOS 14.3 VoiceOver

このアプリは、iPhone 12 Pro, iOS 14.3 VoiceOver環境での読み上げ操作を確認しています。

仕様しているアプリのバージョンは1.0です。


LiDARスキャナとAIを利用して、背面カメラに写る物体の名前の読み上げ、人の検出、
そこまでの距離を読み上げてくれるアプリです。
また、人がマスクを着用しているかどうかも見極めてくれます。

フィードバックの方法は、音声読み上げのほかに、ハプティックフィードバック(振動)と、サウンドの高低が用いられています。
また、VoiceOverがオフの環境でも上記三つの方法でフィードバックしてくれます。

インターネット接続無しでも使えるのが特徴です。

アプリのメニュー言語は英語。
物体の名前なども英語で読み上げられます。

「Super Lidar - Lidar for Blind」
https://apps.apple.com/jp/app/super-lidar-lidar-for-blind/id1543706309






__________目次の先頭へもどる__________

■1 アプリを初めて開くと


インストール直後にアプリを開くと、案内文と共に、
メールアドレスをタイプするテキストフィールドが表示されます。
「Enter mail」のテキストフィールドにメールアドレスをタイプした後、
「Please enter a valid email address」ボタンを実行します。
「GET STARTED」ボタンを実行します。

カメラの仕様を許可するかどうかの問い合わせが表示されるので、
「OK」ボタンを実行します。

案内文が表示されます。
「OK」ボタンを実行して次に進むと、そこがメイン画面となります。



__________目次の先頭へもどる__________

■2 メイン画面のレイアウト


検出モードがオンの状態です。

画面には二つのボタンが表示されています。
左上端には、
「Open Menu」ボタン。
設定メニューやアプリの紹介などを表示します。

画面の最下行で中央部には、
「Stop Detecting」ボタン。
ここを実行すると、検出モードは停止します。
再開するには、同じ場所にある
「Start Detecting」ボタンを実行します。



__________目次の先頭へもどる__________

■3 使ってみる


検出中はカメラで見回すだけのシンプル操作です。

音声で読み上げられる種類は、
・物体の名前とそこまでの距離
・人の存在
・人がマスクをしているかどうか

サウンドの高低で表現しているのは、物体までの距離です。
物までの距離が遠いと高くなり、
近いと低い音になります。

ハプティックフィードバック(振動)が表現しているのは、物体の大きさです。
物体のサイズが大きいと、振動は連続的で強くなり、
小さいと振動はなくなります。



__________目次の先頭へもどる__________

■4 設定メニュー


「Open Menu」ボタンを実行すると、
検出する物の種類を選ぶことができます。

  • 「Detect People」 人の検出

  • 「Detect Environment」 周囲の物体の検出

  • 「Detect All」 すべてを検出


どれかを選択状態(selected)にします。
デフォルトでは「Detect All」が選ばれています。

「back」ボタンを実行すると、メイン画面に戻ります。



__________目次の先頭へもどる__________

■5 関連情報


開発チームの関係者とのインタビューがPodcastで公開されています。
Coming Soon! Super Lidar ? The First Lidar App for iPhone 12 Pro Series. LiDAR ? Light Distance and Ranging from the Makers of Supersense AI for the Blind
https://blindabilities.com/?p=6408

開発チームのウェブサイトは、
Mediate - Research and Innovation Lab
https://www.mediate.tech/

Super Lidar - Lidar for Blind | AppleVis
https://www.applevis.com/apps/ios/productivity/super-lidar-lidar-blind



__________目次の先頭へもどる__________

posted by @voice_of_i at 23:19| Comment(0) | 生活に役立つアプリ | このブログの読者になる | 更新情報をチェックする