2021年09月23日

Appleの「天気アプリ」で雨の降り始め・やんだときに通知を受け取る設定方法(一部地域にのみ対応) with iOS 15 VoiceOver

iPhone 12 Pro, iOS 15.0のVoiceOver環境で読み上げ操作を確認しています。

天気アプリは以前から標準でインストールされていますが、iOS 15になってから通知を受け取れるようになりました。
・雨の降り始め
・雪の降り始め
・やんだとき

 ただし、2021年9月時点では、日本の地域には対応していません。
まずはアメリカ、イギリス、アイルランドから提供開始だそうです。
また、降水量など、通知の条件を指定する項目は見つかりませんでした。


設定方法はシンプルです。

1.  天気アプリを開きます。
画面の右上端の「その他」ボタンを実行します。

2. 「通知」ボタンを実行します。

3. 通知を許可するかどうかの問い合わせが表示されます。
「続ける」ボタンを実行します。

4. 「許可」ボタンを実行します。

5. 地域を選択します。
「現在地」をオンにすると、位置情報の使用の問い合わせが表示されるかもしれません。
複数の場所を登録している場合、通知に対応している地域だけオン・オフ切り替えできます。


posted by @voice_of_i at 09:49| Comment(0) | 生活に役立つアプリ | このブログの読者になる | 更新情報をチェックする

2021年07月12日

18メートル先の情報もカメラでキャッチ、360ビジョンで捕らえたタグは逃がさない「NaviLens Version 3.0.4」 with iOS 14.6 VoiceOver

このアプリはiPhone 12 Pro, iOS 14.6でのVoiceOver環境で読み上げ操作を確認しています。
使用しているアプリのバージョンは3.0.4です。







__________目次の先頭へもどる__________

■1 はじめに


GPSを利用したナビゲーションアプリはいくつもリリースされていますが、衛星からの電波が届かない屋内でのナビゲーションはまだまだ実験中というのが現状です。

スペインのバルセロナから普及し始めているNaviLensは、QRコードのような専用タグをスマートフォンのカメラで読み取る仕組みを採用し、屋内ナビゲーション目的でも利用されています。
遠く離れた場所からでも簡単な操作でタグを検知できるというのが大きな特徴です。


NaviLensの発音は日本語では「ナビレンズ」とするのが一般的かもしれませんが、
スペイン語では「ズ」とは発音しないので、
公式サイトでは「ナビレンス」と表記されています。


アプリはiOSとAndroid向けにリリースされています。

NaviLens on the App Store
https://apps.apple.com/jp/app/navilens/id1273704914

NaviLens - Google Play のアプリ
https://play.google.com/store/apps/details?id=com.neosistec.NaviLens&hl=ja

公式YouTubeチャンネルでは日本語の開設動画を視聴できます。
ナビレンス基本操作チュートリアル2021 - YouTube
https://www.youtube.com/watch?v=j0ut6CD2Nes

NaviLensは元々視覚障害者向けに開発されたアプリですが、だれでも便利に活用できるということで、見えている人向けにもNaviLens GOというアプリをリリースしています。
また、外国語へ自動翻訳もしてくれるので、外国語ユーザ向けの掲示板としても活用されているようです。


「NaviLens GO」
https://apps.apple.com/jp/app/navilens-go/id1313878412


さて、タグの種類はパーソナル利用、パブリック利用、ビジネス利用に大別できます。
地下鉄やバス、博物館などで採用されているのはビジネス利用のタイプで、NaviLensアプリを使えばだれでも情報を得ることができます。

たとえば、四角いカラフルなデザインのNaviLensタグを駅の券売機横に掲示しておけば、視覚障害ユーザは離れた位置からスマートフォンのカメラで見回すことにより、その場所の名前と距離を知ることができます。

タグにはテキスト情報を記録でき、ビジネス利用のタグの場合はその内容をサーバーで管理しているので、内容に変更があった場合には書き換え可能です。
デジタルサイネージ、電子掲示板に書かれている情報が見えないユーザの場合、このタグはそれに代わる存在になってくれることでしょう。

パーソナル利用のタグの場合は、テキストは空っぽなので、自分で好きなテキスト情報をパーソナルメモとして書き込むことができます。
基本的に情報を読み取れるのは自分の端末のみです。
ただし、共有機能を利用することで、5任のユーザーと内容を相互に確認することができます。

パブリック利用のタグでは、基本情報が書き込まれています。
たとえば学校向けに提供されているタグでは、トイレや教室の名前などがすでに書き込まれており、だれもがその情報を読み取ることができます。

それぞれのタグにはパーソナルメモを書き込めるようになっているので、自分にとって都合のよい内容を書き込んでおけば、さらに充実した情報を得ることができるでしょう。


A4サイズのタグであれば18メートル離れた位置から検出可能だそうです。
小さなサイズのタグは近い距離でないと認識できません。


ところで、パーソナル利用とパブリック利用のタグについてですが、リクエストするとタグの書かれたPDFが添付されたメールが届きます。
それを印刷して利用します。

普通の用紙に印刷してもよいですし、フォト用紙に印刷すれば耐久性が高くなります。



__________目次の先頭へもどる__________

■2 最初に起動する手順


まず最初に起動すると、利用規約が表示されます。
「利用規約に同意する」のチェックボックスにチェックをつけて、
「次へ」ボタンを実行します。

通知の許可をするかどうかの問い合わせが表示されます。
つづいて、
カメラへのアクセスと、位置情報へのアクセスを許可するメッセージが表示されます。
許可すると、アプリのトップ画面が表示されます。



__________目次の先頭へもどる__________

■3 トップ画面の構成


トップ画面では、タグを読み取るモードになっています。
背面カメラで見回してタグを見つけるという操作です。
デフォルトではしばらくタグを読み取らないでいると、スキャンは中断されてデバイスは待機状態になります。これはバッテリーの消費を抑えるためです。

再び読み取りモードに切り替えるには、
本体をシェイクするか、
「スキャンのリセット」ボタンを実行します。


読み取りモードの画面では、下端に四つのボタンが表示されています。

  • 「メインメニュー」ボタン
    各種設定ができます。
    LEDフラッシュライトの動作の変更もここで行います。


  • 「フィルタのタブ」ボタン
    キーワードの含まれたタグを検出します。


  • 「ズーム」または「超広角モード」のオン・オフ切り替えボタン
    ズームか超広角モードを利用するためのボタンです。
    「メインメニュー」の中で、
    「設定」、「サブズームモード」の中でカメラレンズの使い方を指定できます。


  • 「360ビジョン」ボタン
    360度を見回して空間オーディオを利用します。




__________目次の先頭へもどる__________

■4 タグを読み取ってみよう


タグを読み取るには、カメラで見回すだけの操作です。
タグを見つけたらカチ・カチ・とクリック音が聞こえます。
タグに記録されている情報は自動的に読み上げられますが、iPhone本体をシェイクすることでも読み上げられます。

読み取った情報は画面の上部、ステータスバーの下辺りにテキストで表示されます。

タグがどの方向にあるのかは「プコンプコン」という効果音が目安になります。
上は高い音、下は低い音、左は弱い音、右は強い音。
正面はその中間の音。



__________目次の先頭へもどる__________

■5 各種設定


トップ画面の中で
「メインメニュー」ボタンを実行します。
次に、
「設定, アプリケーションのオプション」ボタンを実行します。

タグを検出した時のお知らせ方法や、
距離の単位、
LEDライトの点灯、
ハンズフリー、
などをカスタマイズできます。



__________目次の先頭へもどる__________

■5-1 タグを見つけたときのお知らせ方法


「位置情報モード サウンド」ボタンを実行します。
検出されたタグまでの誘導方法を指定できます。

  • ・「サウンド」のオン・オフ切り替えボタン
    オンになっていると、タグの方向を効果音で教えてくれます。デフォルトではオンになっています。


  • ・「音声ガイダンス」のオン・オフ切り替えボタン
    オンになっていると、声で案内してくれます。「左」や「上」というように、声で教えてくれます。


  • ・「ハプティック」のオン・オフ切り替えボタン
    振動での合図


  • ・「拝啓場所」のオン・オフ切り替えボタン
    タグの内容と場所の音を再生します。




__________目次の先頭へもどる__________

■5-2 タグ内容の読み取り方


「読み取りオプション 読み込む 距離」ボタンを実行します。
タグの情報を読み上げるタイミングや、タグまでの距離を読み上げるかどうかなどを指定できます。

  • 「検出時に読み込む」のオン・オフ切り替えボタン
    タグを検出した時にその内容を自動的に読み上げるかどうかを切り替えます。


  • 「新しいタグの検出時に読み上げを中断する」のオン・オフ切り替えボタン
    タグに多くの内容が書き込まれている場合、新しく別のタグを読み取った時に前のタグの内容を最後まで読み上げさせるかどうかを切り替えます。


  • 「ショートテキスト」のオン・オフ切り替えボタン
    タグに多くの内容が書き込まれている場合、読み取りモードの画面には短いテキストだけを表示するかどうかを切り替えます。


  • 「距離を読み上げる」のオン・オフ切り替えボタン
    タグまでの距離を読み上げるかどうかを切り替えます。


  • 「角度を読み上げる」のオン・オフ切り替えボタン
    検出したタグがどこにあるのか、傾き具合で読み上げるかどうかを切り替えます。


  • 「最終更新からの経過時間を音声で知らせる」のオン・オフ切り替えボタン
    最後に読み取ったタグからの経過時間を読み上げるかどうかを切り替えます。




__________目次の先頭へもどる__________

■5-3 360ビジョン 3Dオーディオ


発見したコードを見失っても、3Dオーディオを頼りに、そのコードの場所を見つけやすくなります。
「360ビジョン」ボタンを実行します。
モノラルとステレオの切り替えやお知らせ方法などを指定できます。

  • マグネット
    「特殊なコードを検出したときに自動的に360ビジョンモードに切り替え」のオン・オフ切り替えボタン
    オンになっていると、マグネットコードと表現されている特別なコードを検出すると、自動的に360ビジョンのモードに切り替わります。


  • 位置情報モード
    複数選択できます。
    「サウンド」のオン・オフ切り替えボタン
    「音声ガイダンス」のオン・オフ切り替えボタン
    「ハプティック」のオン・オフ切り替えボタン


  • 3Dサウンドアルゴリズム
    どれか一つを指定します。
    ・モノラルサウンド
    ・ステレオパン
    ・3Dサウンド(HRTF)


  • 方向指示命令
    ・クロックポジション指示
    ・簡易指示


  • タグフォーカスサウンド
    検出したタグの場所を知らせるサウンドを指定します。
    ・ベル
    ・サウンド1
    ・サウンド2
    ・サウンド3




■5-4 バッテリー節約


「エネルギーモード」ボタンを実行します。
バッテリー消費の速さに関係します。

  • ・高パフォーマンス

  • ・自動

  • ・省エネルギー


いずれかを指定します。



__________目次の先頭へもどる__________

■5-5 フラッシュの自動点灯


「フラッシュモード」ボタンを実行します。

  • ・オフ

  • ・オン

  • ・自動


いずれかを指定します。
「自動」になっていると暗い場所で自動的に点灯します。



__________目次の先頭へもどる__________

■5-6 距離の単位


「測定システム」ボタンを実行します。
距離の単位を指定します。

  • ・メトリック

  • ・インペリアル

  • ・自動


メートル法に固定したければ「メトリック」を選択します。



__________目次の先頭へもどる__________

■5-7 ズームと超広角モードの切り替え


iPhoneの背面カメラのモードを指定することができます。

「サブズームモード」ボタンを実行します。

「超広角・0.5倍」
「カメラズーム・2倍」
どちらかを選択状態にします。

これにより、トップ画面の最下行に配置されているボタンの名前が変わります。
距離を短くして広い視野でタグを見つけようとするか、
視野は狭くなるけれども通常の距離の2倍の先にあるタグを見つけるか、
都合のよい方を指定しておきます。



__________目次の先頭へもどる__________

■5-8 ハンズフリーモード


「画面・接近を感知」ボタンを実行します。
iPhoneを手に持たず、胸ポケットやポーチにいれて使用するときに便利なモードです。

「フロントセンサーが何かの接近を感知すると画面をオフにする」のオン・オフ切り替えボタン

この箇所をオンにしておくと、
たとえば胸ポケットにiPhoneを入れておくと、前面カメラは体に密着していることになるので、近接センサーが感知してハンズフリーモードになります。

タッチパネルに何かが当たっても、誤動作を防ぐことができます。

また、ハンズフリーモードで使用中、スキャンを停止するには、前面カメラを2秒手で覆い隠します。
「スキャンの停止」というアナウンスが聞こえて、バッテリーの消費を気にしなくてもよくなります。

再びスキャンを開始するには、デバイスの背面を何回かタップするか、
あるいはシェイクします。



__________目次の先頭へもどる__________

■5-9 点字ブロックに沿って歩く「ガイド」モード


「ガイド」ボタンを実行します。
点字ブロックに設置されたNaviLensコードを読み取ることで、次の場所への方向をガイドしてくれます。

「点字ブロックガイド」のオン・オフ切り替えボタン
この箇所をオンにします。

点字ブロックに沿って歩いていると、一方向だけの案内をしてくれるだけでは不十分です。そこで、4方向からタグを読み取ることで、それぞれ4種類の案内をしてくれます。
この機能はパーソナルタグでは利用できません。

マドリードのプエルタ・デ・アトーチャ駅にて、NaviLens点字ブロックガイドを利用 - YouTube
https://www.youtube.com/watch?v=iRz90iYnMss

点字ブロックとナビレンス - 三宅精一氏に捧ぐ? - YouTube
https://www.youtube.com/watch?v=w263MnFwmiE



__________目次の先頭へもどる__________

■6 パーソナル利用のタグを入手する


パーソナル用のタグは2種類リリースされています。
開発者にリクエストを送信すると、タグの印刷されたPDFファイルがメール送信されてきます。



__________目次の先頭へもどる__________

■6-1 基本タグ


トップ画面の中で
「メインメニュー」ボタンを実行します。
次に、
「タグを取得 パーソナルユース」ボタンを実行します。

ブラウザが起動します。
名前とメールアドレスを入力して、
「タグを受け取る」ボタンを実行して送信します。

七つのPDFファイルが添付されたメールが届きます。
メール本文は英語です。

一つのPDFファイルはユーザマニュアルで、残り六つがNaviLensの専用タグとなっており、印刷して使います。
大きなサイズはA4用紙1枚のタグ、小さなサイズはA4サイズを64当分に切り分けるようになっています。



__________目次の先頭へもどる__________

■6-2 2020年にリリースされた基本タグ


新しくリリースされた基本タグでは、それぞれのサイズが大きくなったことで、より離れた場所から検知しやすくなったそうです。

次のウェブサイトでリクエストします。


Request free NaviLens personal codes
https://docs.google.com/forms/d/e/1FAIpQLScG4pyk3F9O0EYM2XkP3jZqONz7YPb9sVw8YBe3KgF6u_VLrQ/viewform

メールアドレスと住んでいる市町村の名前をタイプして申し込むアンケート的なページになっていますが、国名を書いてもよさそうです。

送信ボタンを実行すると、リクエストが送信されます。



__________目次の先頭へもどる__________

■6-3 印刷したタグの切り分け方


入手したタグの書かれたPDFファイルを印刷するわけですが、
視覚障害者にとってやっかいなのは印刷した紙を切り分けることについてです。

それについては動画で説明されています。

NaviLens・ナビレンスパーソナルユース無料タグのダウンロードと使用方法 - YouTube
https://www.youtube.com/watch?v=L7UpVWC3R1k&feature=youtu.be

たとえば、A4サイズに4枚のタグが印刷されている場合、横に半分、次に縦に半分、つづいてそれをカット。

16枚のタグの用紙であれば、さっきの方法で4当分したものを、同じ手順で4当分してカット。
64枚の用紙であれば、同じような手順で16当分したものをさらに4当分にするという感じです。



__________目次の先頭へもどる__________

■7 パーソナルメモについて


タグにはテキストでメモを入力できるようになっています。
パブリック利用やビジネス利用のタグの場合、すでに書き込まれている情報に対してパーソナルメモを加えることになります。

入手したパーソナル利用のタグはなんの情報も入っていません。
物の管理をしたい場合であれば、商品の名前などを入力しておくとよいでしょう。

パーソナルメモは削除や編集も可能です。
また、5任のユーザーとその内容を共有することができます。



__________目次の先頭へもどる__________

■7-1 タグにパーソナルメモを記録する


タグの詳細情報の画面を表示する必要があります。
詳細情報の画面では、下端に四つのボタンが横に並んでいます。
  • ・選択を閉じる

  • ・パーソナルメモ

  • ・タグを消去

  • ・タグの再読み込み


パーソナルメモを作成してみましょう。

  • 1. タグを読み取ります。


  • 2. 読み取った内容が表示されている箇所を実行します。
    画面の上部、ステータスバーの下辺りに表示されています。
    VoiceOverカーソルをすぐにフォーカスさせるには、画面の上半分で4本指のシングルタップです。


  • 3. 「パーソナルメモ」ボタンを実行します。
    テキストフィールドに記録したい内容を入力して、「同意する」ボタンを実行します。


  • 4. 「選択を閉じる」ボタンを実行してトップ画面に戻ります。


タグの詳細情報の画面を表示する方法はもう一つあります。
読み取ったタグの内容が表示されている箇所で、1本指の下スワイプか上スワイプを行います。
「注記」という読み上げを確認したら、1本指でダブルタップします。
上記と同じ手順でメモを書き込むことができます。


パーソナルメモの内容を編集したり削除するには、
タグの詳細情報の画面で行います。

「パーソナルメモ」ボタンを実行すると、テキストフィールドが表示されるので、
その内容を編集できます。

パーソナルメモの内容を削除するには、「同意する」ボタンの代わりに
「消去」ボタンを実行します。



__________目次の先頭へもどる__________

■7-2 パーソナルメモの内容を他のユーザと共有する


パーソナルメモの内容は基本的に一人のユーザだけが利用する目的で記録できるようになっていましたが、
2020年7月23日のバージョンでは、5任のユーザとの間で共有できるようになりました。

まずは自分のアカウントを作成し、
共有したい相手から登録してもらう手続きが必要になります。

共有している相手はあなたのことをフォローしている、つまりフォロワーという立場になります。
フォロワーはあなたが作成したタグのパーソナルメモをすべて閲覧できるようになります。



__________目次の先頭へもどる__________
■7-2-1 アカウント作成

パーソナルメモの共有機能を利用するには、お互いのユーザーがNaviLensのアカウントを作成してログインしておくことが必要になります。

アカウントを作成するには、NaviLensアプリのトップ画面で、
「メインメニュー」ボタンを実行します。
「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」ボタンを実行します。

  • 1. 三つの方法が用意されています。
    ・Appleでサインアップ
    Google アカウントでサインイン
    ・メールアカウントでサインイン


  • 2. ここでは、メールアカウントでサインインしてみることにしましょう。
    「メールアカウントでサインイン」ボタンを実行します。


  • 3. 次の画面では、メールアドレスとパスワードをタイプする画面が表示されます。
    ここでのパスワードとは、NaviLensのアカウント用のパスワードなので、好みのパスワードをタイプします。
    「ログインする」ボタンを実行します。


  • 4. メッセージが表示されますが、
    「同意する」ボタンを実行します。


  • 5. 自分の名前、ユーザー名をタイプするテキストフィールドが表示されます。
    ニックネームでもかまいません。
    「アカウントを作成する」ボタンを実行して、次に進みます。


  • 6. 画面は「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」に戻っています。


  • 7. 登録したメールアドレス宛には確認メールが送信されてきます。
    件名は日本語になっていないかもしれませんが、本文は日本語です。
    認証するためにhttpsで始まるurlを実行しておくことが必要です。




__________目次の先頭へもどる__________
■7-2-2 「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」の画面レイアウト

次のボタン類と内容が表示されています。

  • ・設定 ボタン

  • ・マイパーソナルメモを共有する ボタン

  • ・ユーザー名

  • ・メールアドレス

  • ・マイパーソナルメモ ボタン

  • ・フォロー中 ボタン

  • ・フォロワー ボタン

  • ・タグを取得 ボタン

  • ・ログアウト ボタン




__________目次の先頭へもどる__________
■7-2-3 共有したい相手から登録してもらう

自分のパーソナルメモを共有するには、事前に相手からフォローされる、登録されている必要があります。
フォローされるには、自分のNaviLensアプリの画面上に表示させたコードを相手に読み取ってもらいます。
相手もNaviLensのアカウントでログインしていることが必要です。

  • 1. 「マイパーソナルメモを共有する」ボタン
    を実行すると、画面上に登録用のコードが表示されます。
    スクリーンカーテンはオフにしておいてください。


  • 2. 相手のデバイスでNaviLensアプリを開き、
    通常のNaviLensコードを読み取るように自分のデバイスの画面をスキャンしてもらいます。
    コードが無事に読み取られると、効果音が鳴り、メッセージで確認できます。
    相手のNaviLensアプリでは自動的に登録が完了します。


  • 3. 自分のデバイスで、
    「同意する」ボタンを実行しておきます。



自分が作成したパーソナルメモ付きのタグを相手にスキャンしてもらうと、
自分のユーザ名とそのメモの内容が表示されます。
相手が自分のパーソナルメモの内容を編集することはできません。
ただし、相手はそのタグに対して別のハーソナルメモを追加することはできます。



__________目次の先頭へもどる__________
■7-2-4 共有関係にあるユーザーを管理する

前述した方法で、自分が共有したい相手から登録された場合、
自分はその人にフォローされていると表現できます。

「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」の画面の中で、
「フォロワー」ボタンを実行すると、
フォローされているユーザーの名前を確認できます。
削除したい場合は、
1本指の上スワイプか下スワイプで
「消去」と読み上げられたら、1本指ダブルタップで実行します。


また、自分が他のユーザーをフォローしている場合、
「フォロー中」ボタンを実行すると、
自分がフォローしているユーザーの名前を確認できます。
消去する手順は上記と同じです。



__________目次の先頭へもどる__________
■7-2-5 作成したパーソナルメモの表示と編集

タグに対して作成したパーソナルメモは、
「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」の画面で一覧表示させることができます。
また、編集捜査も可能です。

「マイパーソナルメモ」ボタンを実行すると、
パーソナルメモが一覧表示されます。

いちいちタグをスキャンしてメモの編集や削除の操作をする手間がなくなります。



__________目次の先頭へもどる__________
■7-2-6 共有しているパーソナルメモの読み上げ方法の設定

一つのタグにたいして自分が作成したパーソナルメモだけを読み上げさせるか、
フォローしているユーザーが作成したパーソナルメモもいっしょに確認できるようにするか、
そのような指定ができるようになっています。

「NaviLensフレンズ&ファミリー パーソナルタグの共有&バックアップ」の画面の中で、
「設定」ボタンを実行します。
  • ・「マイパーソナルメモのみ表示」のオン・オフ切り替えボタン

  • ・「常にマイパーソナルメモを優先表示」のオン・オフ切り替えボタン

  • ・「パーソナルメモの最終更新日時を隠す」のオン・オフ切り替えボタ


上記のオプションが用意されています。



__________目次の先頭へもどる__________

■8 パブリック利用のタグを入手する


パブリック利用のタグはウェブサイトから申し込みます。
2021年2月7日の時点では、学校とアソシエーション(施設・協会)、2種類の基本情報が記録されたタグだけを申し込むことが可能です。

たとえば、教室やトイレなど、学校施設にある部屋の名前などが記録されたタグを入手できるわけです。
それらのタグをドアなどに張り付けておけば、壁を手探りしなくてもスマートフォンのカメラで目的の部屋を見つけることができるでしょう。

ナビレンス-あなたの生活にタグを
https://free.navilens.com/

上記サイトで、名前とメールアドレスを入力し、
キットを選ぶボックスで、学校かアソシエーションを選びます。
言語を選ぶボックスで、日本語が選ばれているかどうかも確認しておきます。
「使用規約に同意しますか」のチェックボックスにチェックを着けます。

「ダウンロード」ボタンを実行します。

基本情報が記録されたタグ(PDFファイル)はZIP圧縮されて、入力したメールアドレスに届けられます。

それぞれのタグのファイル名は英語になっていますが、PDFファイルを開くと日本語で表記されていることがわかります。
たとえば、
Dining_room_AAB007_210.pdf
このファイルを開くと「食堂」と書き込まれています。

NaviLensアプリでタグを見つけると「食堂」という読み上げを確認することができます。
iPhoneの言語環境を英語にしていれば、
「Dining room」と読み上げます。



__________目次の先頭へもどる__________

■9 検出したタグの位置を逃さない、360ビジョンを利用する


NaviLensタグを検出してその場所に歩いていこうとする場合、常にその方向にカメラが向いていなければなりません。
ハンズフリーモードで使用していたとしても、途中で体の向きを変えなければならないこともあるでしょう。そんな時は再びタグを検出しなければなりません。

そういった時に役立つのが360ビジョンの機能です。
検出したタグの位置を一時的に記録してくれるので、カメラが別の方向に向いてしまっても、サウンドや振動を頼りにいつでも確認できる状態になります。


360ビジョンのモードに切り替えるには、二つの方法があります。
一つ目は、
アプリのトップ画面で、画面の右下端にある
「360ビジョン」ボタンを実行します。
ショーンという効果音が鳴り、モードが切り替わったことを確認できます。

二つ目は、ジェスチャを利用します。
アプリのトップ画面で、
3本指の左スワイプをおこないます。
これで360ビジョンのモードに切り替わります。

通常の検出画面に戻るには、三つの方法があります。
・画面の左上端の「戻る」ボタンを実行する。
・スクラブのジェスチャ。
・3本指で右スワイプ。


ちなみにマグネットタグという特別なタグを検出したときには、自動的に360ビジョンのモードに切り替えるオプションが用意されています。
バルセロナではバス停など使用頻度の高い場所にマグネットタグが設置されているそうで、ユーザは手動でモードを変更する必要がなくなるわけです。
マグネットタグとは、磁石のように反応してくれるタグという比喩表現のようです。



__________目次の先頭へもどる__________

■9-1 360ビジョンでタグを読み取ってみよう


通常のタグ検出と同じ操作で、背面カメラで見回します。
検出されると、にぎやかなドラムサウンドとともに、カーン・カーンというベルのサウンドが聞こえます。

カメラをタグのある場所から別の方向に向けてみましょう。
ベルの音は聞こえず、ドラムサウンドだけが聞こえます。
そして、ガイド音声がタグまでの距離や方向を案内してくれることでしょう。
タグの方向にカメラを向けると、ベルの音と振動で合図してくれます。

つまり、検出したタグを見失ったとしても、アプリはその場所を覚えているので、サウンドと振動でいつでも同じタグを見つけられるわけです。

ステレオヘッドセットを装着していれば、3Dオーディオにより、ドラムサウンドはタグのある方向から聞こえてきます。
ドラムサウンドの聞こえる側にカメラを向けて、ベルの音と振動のフィードバックを探せばよいのです。



__________目次の先頭へもどる__________

■9-2 360ビジョンで検出したタグをロックオン


360ビジョンでタグを検出して、そのタグを探している途中で、別のNaviLensタグが見つかるとどうなるでしょうか?
新しいタグの場所を覚えてしまい、一つ前のタグの場所が分からなくなってしまいます。
それを防ぐためには、タグを検出した時点でロックしてしまいます。
ロックしてしまうと、新しいタグを検出しないようになります。

ロックするには二つの方法があります。

一つ目は、画面の右上近くにある
「コードのロック」ボタンを実行します。

二つ目は、ジェスチャを利用します。
2本指のダブルタップ。


ロックを解除するには、二つの方法があります。
・「コードのロックを解除」ボタンを実行する。
・2本指のダブルタップ。



__________目次の先頭へもどる__________

■10 関連情報


公式サイトは日本語で表示されます。
NaviLens EMPOWERING the visually impaired
https://www.navilens.com/

NaviLens - YouTube
https://www.youtube.com/channel/UCW7Ff1wAabrO0iyIgubUW9w

MIT Tech Review: スマホが視覚障害者の目に、バルセロナに広まる新しい点字
https://www.technologyreview.jp/s/146088/these-colorful-stickers-are-helping-blind-people-find-their-way-around/

Drafts about A11Y: スペイン発。視覚障害者をカラフルに誘導する「Navilens」。
https://accessibility-tech.blogspot.com/2019/06/navilens.html

<障害のある方やすべての方へ>タグで情報提供。屋内を含む案内が可能な「NaviLens」/わたし達の未来をつくる「アイデアソン・ハッカソン」
http://www.mirai-commons.com/blog20191220.html

視覚障害者の彫刻鑑賞 音声でサポート 長泉・ヴァンジ美術館 アプリ導入へ|あなたの静岡新聞
https://www.at-s.com/news/article/topics/shizuoka/848650.html

神戸新聞NEXT|医療ニュース|スマホで視覚障害者の街歩き手助け タグ読み取り音声案内 神戸で実証実験
https://www.kobe-np.co.jp/news/iryou/202012/0013959032.shtml

Eyes On Success with hosts Peter and Nancy Torpey (1935 NaviLens Navigation System (Aug. 28, 2019))
http://podcast.EyesOnSuccess.net/eos_1935-navilens-navigation-system-aug-28-2019_podcast.mp3

Assistive Technology Update with Josh Anderson (ATU441 - NaviLens with Lamar Johnson)
http://feedproxy.google.com/~r/AssistiveTechnologyUpdate/~3/Htk0S_q-Xdw/

NaviLens ? The new smart digital signage for everyone! Or, as we say, QR Codes on Steroids! Free App on iOS and Android
https://blindabilities.com/?p=6584

Drafts about A11Y: 欧州で2022年からケロッグの全てのシリアル製品にnavilensのコードが導入される。視覚障害者の食料購入を便利に。
http://accessibility-tech.blogspot.com/2021/07/2022navilens.html



__________目次の先頭へもどる__________

posted by @voice_of_i at 00:00| Comment(0) | 生活に役立つアプリ | このブログの読者になる | 更新情報をチェックする

2021年06月07日

目の前の様子をちょこっと観てもらえる視覚支援アプリ「Be My Eyes Version 3.6.10」 with iOS 14.6 VoiceOver


このアプリは、iPhone 12 Pro, iOS 14.6のボイスオーバー環境で読み上げ操作を確認しています。
使用しているアプリのバージョンは3.6.10です。


目の前にある商品の名前が分からない、
入り口が分からずにその店の前を何度も行ったり来たり
パソコンソフトを買ったのにシリアル番号が確認できなくてインストールできない、

視覚に障害のある人は、そんな不便を何度も経験したことがあるでしょう。


一報で、
レストランのメニューにあんなにも顔を近づけている人は何をしてるんだろう、
白い杖を持った人が道に迷っているような雰囲気だけど、どうやって声をかけようか、
そんなことを感じた人は多いかもしれません。


このアプリでは、ビデオ通話を通して、カメラに写っている情報を見えている人に教えてほしいと頼むことができ、ボランティアはその依頼に答えることのできるシステムを提供してくれます。

デンマークで開発され、今では世界中で使われています。
クラウドファンディングで資金を集め、サービスが開始されました。
2015年にiOSアプリがリリースされ、2017年10月5日にはAndroidアプリがリリースされました。

このアプリでサポートしてほしいというリクエストを発信できるのはまったく目の見えない人だけとは限られていないので、
色の識別が苦手な人、
文字を読み上げてもらった方が理解しやすい人、
そんな人たちでも便利に活用できることでしょう。

iOSアプリは、
「Be My Eyes ? Helping blind see」をApp Storeで
https://apps.apple.com/jp/app/be-my-eyes-helping-blind-see/id905177575

Androidアプリは、
Be My Eyes - helping the blind see - Google Play の Android アプリ
https://play.google.com/store/apps/details?id=com.bemyeyes.bemyeyes






__________目次の先頭へもどる__________

■■1 はじめに


身の回りには視覚を必要とする物であふれています。
お店の看板、
家電製品リモコンの操作ボタン、
服に付いたシミや汚れ、
などなど。

ちょっとだけ観てほしいなぁ、でも、なんとなく申し訳ないなぁ…
お願いする側としては気を遣ってしまいます。
また、近くに頼める人がいない場合も多々あります。

そんな悩みを解決してくれるのがこのアプリ「Be My Eyes」(私の目になって)です。

サポートしてくれるのは、今なら時間あるので観ることはできますよ、と意思表示してくれている人たちです。
いやいやながらにヘルプに応対してくれているわけではありません。

ボランティアの人が忙しい時はビデオ通話に応答しなければよいという仕組みです。
なので、通話先のボランティアは快く、ヘルプしてほしい人の目の前の様子を教えてくれることでしょう。

お互いが変な気を遣わずに利用できるサービスになっているのです。



__________目次の先頭へもどる__________

■■2 サポートを受けたい人が使う場合


サポートを受けるには、自分の情報を登録して、後はリクエストを発信するだけの操作手順となります。



__________目次の先頭へもどる__________

■2-1 自分の役割を登録しよう


初めてアプリを起動すると、利用規約に同意する必要があります。
画面の下端にある「同意する」ボタンを実行して次に進みます。

自分がサポートを受けたい人か、サポートをしたい人かを登録します。

  • 1. サポートを受けたい人は
    「視覚補助が必要です」ボタンを実行します。
    実際にその人が視覚障害者かどうかを確認しているわけではないので、だれかの視力を借りて何かを見てほしい、読んでほしいとお願いしたい人も登録できます。



  • 2. 説明文が表示されます。
    新しく登録する人は、
    「新規ユーザ」ボタンを実行します。
    すでに登録している人は、
    「サインイン」ボタンを実行します。



  • 3. 新規ユーザとして登録してみましょう。
    Apple ID、Facebookアカウント、Googleアカウント、あるいはEmailアドレス、いずれかの方法で登録できます。



  • 4. メールアドレスで登録してみましょう。
    名、姓、メールアドレス、パスワードをそれぞれタイプします。
    パスワードは自分で好きなものを入力してください。



  • 5. 登録したメールアドレスにBe My Eyesから「ご利用のメールアドレスを確認してください」という件名のメールが届きます。
    メールアプリを開いて、本文内の
    「このリンクを開いてメールアドレスを確認してください」というリンクを実行します。
    Safariが起動して、確認作業は完了です。



  • 6. Be My Eyesアプリの画面を開きます。
    自分の話す言語を指定する画面が表示されているので、
    「日本語」の箇所を実行します。



  • 7. マイクとカメラの使用を許可するための手続きが必要になります。
    「アクセスを許可する」ボタンを実行します。



  • 8. 二つのボタンが表示されています。
    「初めての通話」ボタンを実行すると、ボランティアにビデオ通話を発信できます。
    「スキップ」ボタンを実行すると、アプリのトップ画面を表示します。
    ここでは
    「スキップ」ボタンを実行しておきましょう。



  • 9. メールによるニュースレターを購読するかどうかの確認が表示されます。
    「はい、登録します」ボタン
    「後で」ボタン
    ニュースレターは英語で届けられます。
    どちらかのボタンを実行してください。


これで利用を開始する準備完了です。
アプリのトップ画面が表示されます。



__________目次の先頭へもどる__________

■2-2 トップ画面の構成


アプリのトップ画面には、最下行に二つのタブ切り替えボタンが表示されています。

画面の左下端にある「ホーム」タブが選択状態になっていれば、ボランティアにリクエストを発信できる状態です。

画面の右下端にある「ストーリー」タブが選択状態になっていると、体験談を投稿したり、投稿された体験談を読むことができます。


普段は「ホーム」タブを選択状態にしておきます。
この画面では、

  • ・設定 ボタン
    画面の左上端に配置されています。
    各種設定メニューを表示します。


  • ・応答可能なボランティアに接続 ボタン
    ビデオ通話を発信します。


  • ・スペシャライズドヘルプ ボタン
    言語設定によってはこのボタンは表示されません。
    契約している企業などのサポートセンターや、不定期で開催されるイベントにビデオ通話を発信します。




__________目次の先頭へもどる__________

■2-3 リクエストを発信する


さて、実際の使用法は、アプリのトップ画面で、
「応答可能なボランティアに接続」ボタン
を実行するだけです。
ボタンの位置は画面の中央です。
通和音が流れて、サポート可能な人につながり、音声通話ができるようになります。

相手には、iPhoneの背面カメラの映像が映し出されます。
また、登録した自分のファーストネームだ相手の画面に表示されます。

観てもらいたいものをカメラに写して、会話をしながらサポートしてもらうことができます。

切断する時は、
「通話を終了」ボタン
次に、
「はい」ボタンを実行します。

通話を終了する操作がうまくいかなければ、相手の方で先に通話終了してもらうようにお願いするとよいでしょう。



__________目次の先頭へもどる__________

■2-4 サポートしてほしい言語を切り替える


このアプリは世界中の人にサポートしてもらうことができますが、指定した言語の人にのみ繋がる仕組みです。
初期設定では主要な言語として、日本語を設定しました。
それに加えて、複数の言語を指定しておくことができます。

言語の切り替えや追加は、
「設定」ボタンを実行して、
「主要言語」ボタンを実行して、目的の言語を選択状態にします。
これが第一言語、優先される言語となります。

「その他の言語」ボタンを実行すると、複数の言語を選択できます。

複数の言語を選んでいる場合、ビデオ通話を発信すると、まず優先される言語のボランティアにつながろうとします。
もしその言語のボランティアにつながらなければ、その他の言語で指定した言語を話すボランティアにつながります。



__________目次の先頭へもどる__________

■2-5 Siriで呼び出すための「Siriショートカット」


Siriにリクエストするフレーズを登録することで、簡単にボランティアにビデオ通話を発信することができます。
iPhoneのロックを解除しておく必要がありますが、ホーム画面からでも、他のアプリを表示している状態でも、Siriにそのフレーズをリクエストすれば直接アプリが起動して、通話を発信してくれるという流れです。

設定するには、
「設定」ボタンを実行して、
「Siriのショートカット」ボタンを実行して、
「ボランティアに通話する」ボタンを実行します。

テキストフィールド内にリクエストしたいフレーズをタイプします。
デフォルトでは、
「ボランティアに通話する」
となっています。

「Siriに追加」ボタンを実行すれば完了です。
Siriにそのフレーズで話しかけて、そのアクティビティが実行されるかどうか確かめてみてください。

声ではなく、タイプ入力でSiriにリクエストする設定にしている場合は、そのフレーズをタイプします。



__________目次の先頭へもどる__________

■■3 サポートをしたい人が使う場合


サポートをするには、自分の情報を登録して、後はビデオ通話がかかってくるのを待つだけの操作手順となります。



__________目次の先頭へもどる__________

■3-1 自分の役割を登録しよう


初めてアプリを起動すると、利用規約に同意する必要があります。
画面の下端にある「同意する」ボタンを実行して次に進みます。

自分がサポートを受けたい人か、サポートをしたい人かを登録します。


  • 1. サポートをしたい人は
    「ボランティアとして参加したいです」ボタンを実行します。



  • 2. 新しく登録する人は、
    「新規ユーザ」ボタンを実行します。

    すでに登録している人は、
    「Sign in」ボタンを実行します。



  • 3. 新規ユーザとして登録してみましょう。
    Apple ID、Facebookアカウント、Googleアカウント、あるいはEmailアドレス、いずれかの方法で登録できます。



  • 4. メールアドレスで登録してみましょう。
    名、姓、メールアドレス、パスワードをそれぞれタイプします。
    パスワードは自分で好きなものを入力してください。



  • 5. 登録したメールアドレスにBe My Eyesから「ご利用のメールアドレスを確認してください」という件名のメールが届きます。
    メールアプリを開いて、本文内の
    「このリンクを開いてメールアドレスを確認してください」というリンクを実行します。
    Safariが起動して、確認作業は完了です。



  • 6. Be My Eyesアプリの画面を開きます。
    自分の話す言語を指定する画面が表示されているので、
    「日本語」の箇所を実行します。



  • 7. マイクとカメラの使用を許可するための手続きが必要になります。
    「アクセスを許可する」ボタンを実行します。



  • 8. 「OK」ボタンを実行します。



  • 9. メールによるニュースレターを購読するかどうかの確認が表示されます。
    「はい、登録します」ボタン
    「後で」ボタン
    ニュースレターは英語で届けられます。
    どちらかのボタンを実行してください。


これで利用を開始する準備完了です。
アプリのトップ画面が表示されます。



__________目次の先頭へもどる__________

■3-2 サポートする言語を切り替える


このアプリでは世界中の人からサポートのリクエストが届きますが、指定した言語の人からのみリクエストが届く仕組みになっています。
複数言語を話せる人向けには、好きな言語を指定しておくことができるようになっています。

画面の右上端にある
「設定」ボタンを実行します。

「主要言語」ボタンを実行して、目的の言語を選択状態にします。
これが第一言語、優先される言語となります。

「その他の言語」ボタンを実行すると、複数の言語を選択できます。



__________目次の先頭へもどる__________

■■4 リクエストノ流れ


通話が届いたときの体験練習をできる仕組みが用意されています。
アプリの画面で、
「通話に応答するための方法を練習します」ボタンを実行すると、その手順が表示されます。
ホーム画面を表示したとき、デバイスを画面ロックしたとき、
それぞれのタイミングで通知が送られて、それに応答するとビデオが再生されるという仕組みです。
実際の通知がやって来る前に試しておくとよいでしょう。

視覚障害者がサポートしてほしいとリクエストすると、そのお知らせは一度に10人のボランティアに届くそうです。
しばらくしても応答されなければ、自動的に次の10人にお知らせが送信されます。

ボランティアの側の端末は画面ロックになっていても、他のアプリをしようしている時でも、その通知がサウンドとメッセージで表示されます。
応答できない場面ではそのままにしておくと通知は消えます。
ボランティアの人にとっては、サポートしてもよいという時だけ応答すればよい訳です。
サポートした回数に応じてバッジが増えていくので、楽しみながらサポートできる仕組みになっています。

夜の間はボランティアに通知が届かないようにお休みタイムが設定されていて、午後22時から午前7時までとなっています。
リクエストする側は24時間ビデオ通話を発信できますが、自分で済んでいる地域がお休みタイムの間は他の地域の人が応答してくれます。
しかし、他の地域に住んでいる日本語ボランティアの数は少ないと思われるので、その時間帯に日本語ボランティアにつながる確率は低いと思われます。



__________目次の先頭へもどる__________

■■5 おわりに


携帯電話にテレビ電話機能が搭載された時代、いち早く同じコンセプトの遠隔サポートが実現できないものかと考えられていました。

筑波大学付属盲学校の元教諭である
長谷川貞さん
https://ubq-brl.at.webry.info/
が考案された「テレサポート」です。

当時はサポートしてくれる人の確保や、高額な通話料金の問題などで、一般的には普及しなかったと思われます。

今ではiPhoneなどのスマートフォンが普及したことで、FacetimeやSkypeなどによるビデオ通話がコストを気にせずに利用できるようになりました。

Be My Eyesの特徴は、
特定の人を選ばずにサポートをお願いすることができる。
世界中の人が対象である。
サポートをする人は、自分の好きな時間帯にちょこっとヘルプすることができる。

このような「ちょこっとボランティア」のことを、マイクロボランティアと呼ばれているそうです。

ボランティア活動をしている人の仲には、相手が求めている以上の使命感や責任感を抱いてしまうケースがあるようです。自分の時間を惜しんでまで働いてしまうということも。
サポートを受ける人は、それを感じて気が引けてしまうこともあるでしょう。

お互いが気楽に頼み頼まれるサービス、
Be My Eyesではそれを実現してくれそうに思います。



__________目次の先頭へもどる__________

■■6 関連情報


ツイッターのアカウント
Be My Eyes (@BeMyEyes) | Twitter
https://twitter.com/bemyeyes

クラウドを通じて視覚障害者の「目」となる機能を提供するBe My Eyes | TechCrunch Japan
https://jp.techcrunch.com/2015/01/18/20150116be-my-eyes/

リモートで視覚障害者の目になれるボランティアiOSアプリ「Be My Eyes」 - ITmedia NEWS
https://www.itmedia.co.jp/news/articles/1501/16/news069.html

スマホを通じて目が見えない人の「目」になれるアプリ「Be My Eyes」 - GIGAZINE
https://gigazine.net/news/20150116-be-my-eyes/

A Review of the Be My Eyes Remote Sighted Helper App for Apple iOS | AccessWorld | American Foundation for the Blind
https://www.afb.org/aw/16/2/15488



__________目次の先頭へもどる__________

posted by @voice_of_i at 18:00| Comment(0) | 生活に役立つアプリ | このブログの読者になる | 更新情報をチェックする

2021年05月30日

振動でも伝えてくれる、紙幣識別アプリ「Cash Reader Version 1.44」 with iOS 14.6 VoiceOver

このアプリは、iPhone 12 Pro, iOS 14.6のVoiceOver環境で読み上げ操作を確認しています。

使用しているアプリのバージョンは1.44です。


チェコで開発されているアプリで、積極的にアップデートが行われています。
識別可能な国の通貨も少しずつ増えており、2021年5月現在で100近くの紙幣に対応しています。
iOS版とAndroid版がリリースされています。

公式HPは日本語でも公開されています。

ホーム | Cash Reader Banknote reader application for the blind
https://cashreader.app/ja/


視覚障碍者が旅行に出かけて困るのは、訪問先の国のお金を自力で識別しにくいことです。
国によってはサイズで見分けやすくなっていたり、マークで識別しやすい工夫がされているものもありますが、初めて訪れた国の紙幣の種類を覚えるのはたいへんです。
日本では4種類の紙幣が流通していますが、9種類や11種類などの多くの紙幣が流通している国もあります。同じ金額でもデザインによる違いもあります。

そんなときに活躍するのが紙幣識別アプリです。
カメラでかざした紙幣の種類を読み上げてくれるわけです。

Cash readerの特徴としては、
VoiceOverがオフの環境でも音声で紙幣の種類を教えてくれます。
バイブレーション機能が利用できるので、振動の回数で紙幣を識別できます。
通貨のデータをダウンロードしておけば、インターネット接続を必要としません。

「Cash Reader:紙幣を識別」をApp Storeで
https://apps.apple.com/jp/app/cash-reader-%E7%B4%99%E5%B9%A3%E3%82%92%E8%AD%98%E5%88%A5/id1344802905

アプリは無料で入手できますが、識別できるお札の種類には制限があります。
たとえば日本円の場合は、千円札のみが識別可能です。
アプリ内課金によりフルバージョンを購入することで、すべての種類の紙幣に対応します。
また、1か月プラン、1年プランも用意されています。
小旅行の場合は1か月プランをアプリ内課金しておくとたいへん役に立つことでしょう。

Android版のダウンロード先は
Cash Reader:紙幣を識別 - Google Play のアプリ
https://play.google.com/store/apps/details?id=com.martindoudera.cashreader&hl=ja







__________目次の先頭へもどる__________

■1 アプリを起動する


インストール直後、初めてアプリを起動すると、
「カメラのアクセスを許可する」ボタンを実行して、カメラの仕様を許可する必要があります。

識別したい通貨を選びます。後程設定メニューの中でも選ぶことができるので、ここでは、
「日本円を選ぶ」ボタンを実行しておきましょう。

日本円のデータがダウンロードされます。
「続ける」ボタンを実行します。

アプリの仕様規約が表示されます。
「同意し、アプリの使用を開始する」ボタンを実行します。

これでアプリのメイン画面が表示されます。



__________目次の先頭へもどる__________

■2 紙幣を識別する操作


メイン画面において、カメラを紙幣に向けてかざすだけの操作です。
通貨の種類、紙幣の額を音声で読み上げてくれます。
VoiceOverがオフの環境でも音声で読み上げてくれます。

暗い場所ではフラッシュライトを自動点灯させるかどうかの設定ができます。

バイブレーション機能をオンにすれば、振動の回数で紙幣の種類を識別することができます。
音声読み上げをさせたくない場合は、サイレンとモードにすることで振動のみで識別できます。

振動で確認する場合、すべての通貨を認識するモードでは機能しません。
一つの通貨だけを識別するように指定しておく必要があります。



__________目次の先頭へもどる__________

■3 設定メニュー


メイン画面に表示されている「設定」ボタンを実行すると、メニューが表示されます。
アプリ内課金もこの中で行います。

「通貨を選ぶ」ボタン
すべての通貨を識別対象にするか、一つだけを対象にするか指定できます。
バイブレーション機能を利用するには、一つの国の通貨だけを指定しておく必要があります。また、誤認識を防止することにもなるので、必要なければ一つの国だけを指定しておくとよいでしょう。


「バイブレーション設定を開く」ボタン
すべての国の紙幣を識別対象にしている場合は、このメニューは表示されません。
ここでは、指定した通貨の振動パターンを確認することができます。
また、振動のパターンや感覚の長さを変更できます。
サイレンとモードのときだけ機能させるか、常に振動させるかを選べます。


「Siriショートカットを作成」ボタン


「画面の色」ボタン
画面の色を変更します。
白黒表示にするか、初期設定にするか、指定します。


「フラッシュライトの自動点灯」
・暗いところではオンにする、
・常にオフにする、
・常にオンにする、
3パターンの中から指定します。


「識別中の発信音」
紙幣識別中に効果音を鳴らすかどうかの設定です。
発信音をオンにするかオフにするかを指定します。


「カメラの切り替え」
前のカメラか後ろのカメラか、どちらを使うか指定します。


「サイレントモード」
サイレントモードのときの通貨の通知方法を指定します。
・音声で知らせる
・バイブレーションで知らせる
・ハードウェアボタンで識別方法を変更


「紙幣の識別方法」
識別したときに読み上げる内容を指定します。
・・紙幣だけ通知 (たとえば、千)
・・紙幣と通貨を通知 (たとえば、千円)


「アプリの言語を設定する」
Cash Readerアプリのメニュー言語を変更できます。


「検証のための写真を送信」
メイン画面に、「検証のための写真を送る」ボタンを表示するか隠すかを指定できます。
間違えた金額として紙幣を識別した場合に、送るボタンを実行することで、懸賞のためにその紙幣の写真を送信することができます。
アプリの改善に役立てられます。



__________目次の先頭へもどる__________

posted by @voice_of_i at 01:01| Comment(0) | 生活に役立つアプリ | このブログの読者になる | 更新情報をチェックする

2021年02月23日

リアルタイムの文字認識が心地よい、画像をAIが解析してくれる視覚支援アプリ「Envision AI Version 2.3.11」 with iOS 14.4 VoiceOver

このアプリは、iPhone 12 Pro, iOS 14.4 VoiceOver環境での読み上げ操作を確認しています。
使用しているアプリのバージョンは2.3.11です。

「Envision AI」
https://apps.apple.com/jp/app/envision-ai/id1268632314


このアプリは有料購読制になっており、用意されているサブスクリプションのプランは、1か月、1年、一生涯使えるライフタイムプランの3種類です。
14日間はフリートライアルとして無料ですべての機能を試すことができます。

デバイスのカメラを利用することで、様々な視覚支援の機能を盛り込んだアプリになっています。

VoiceOverがオフの環境でも、認識結果を読み上げさせることができます。

オランダで開発されており、2017年11月にアメリカなどでリリースされました。
iOS版につづいて、2019年前半にはAndroid版もリリースされ、Google Play Awards 2019のアクセシビリティ部門で賞を取りました。


操作はまず利用したい視覚支援の項目を選び、カメラでかざしたり、写真を撮影するだけです。
文字認識、風景の説明、色の識別、バーコードスキャン、人をみつける、ものをみつけるなどの機能が用意されています。

特にリアルタイムに文字を認識してくれる機能は、視覚障碍者にとってはとても都合がよく、便利に活用できます。
文字認識については多言語対応で、自動的に言語を判定してくれます。
読み上げ音声はそれぞれの言語の声で読ませることもできますし、デバイスのシステム環境で使われている言語のみに固定することもできます。

日本語の文字認識や風景の説明については、現時点ではインターネットにアクセスしておく必要があります。
色の検出の他、ラテン語ベースの言語の文字認識については、インターネットにアクセスしていなくても実行させることができます。







__________目次の先頭へもどる__________

■1 アカウント、サブスクリプションプランの種類、iOSとAndroidで使う場合について


インストール直後のアプリを初めて起動すると、アカウント登録が求められます。
GoogleアカウントやFacebookアカウントでログインすることもできます。

「メールアドレスでログイン」を実行すると、
登録したいメールアドレスと、Envision AIで使用したいパスワードをタイプします。
「Submit」ボタンを実行すると、タイプしたメールアドレス宛に確認メールが届きます。
メール本文内に記載されているhttpsで始まるURLを開くと、登録完了です。
この登録を完了させる操作は48時間以内に行う必要があります。

優良のサブスクリプションプランを購入する場合、「ヘルプ」の画面を開いて
「サブスクリプションを確認する」ボタンを実行します。
この画面の中でアプリ内課金の手続きを行うことができます。

プランを購入したにもかかわらず、どのプランも契約していないことになっている場合、
「購入を復元する」ボタンを実行してみてください。


iOSとAndroidの異なるOSで動くデバイスを所有している場合、一つのプランを購入していれば他のOSでもそのプランは有効です。
同じアカウントでログインすることが必要です。



__________目次の先頭へもどる__________

■2 トップ画面の構成


まず画面の一番下の行には五つのタブ切り替えボタンが表示されています。
目的のタブを選択することによりモードが切り替わり、画面に表示されるボタン類は異なります。
左から、
  • 「テキスト」
    この画面に切り替えると、インスタントテキスト(リアルタイムOCR)、写真を撮影してのOCRなどを利用できます。


  • 「一般」
    風景の説明、色の検出、バーコードスキャンなどを利用できます。
    色検出は30種類の標準モードと950種類の詳細モードから選べます。


  • 「スキャンして見つける」
    ・人をみつける
    ・物をみつける
    ・Envisionに学習させる、
    現時点で学習させられるものは顔だけです。


  • 「グラス」
    スマートグラスのエンビジョングラス関連のメニューです。


  • 「ヘルプ」
    読み上げ音声の選択や検出する色の種類を指定するなど、設定項目やアプリ内課金のメニューが用意されています。




__________目次の先頭へもどる__________

■3 各モードの紹介


トップ画面で最下行に配置されているタブを選択することにより、複数の機能を使い分けることができます。



__________目次の先頭へもどる__________

■3-1 OCR機能「テキスト」


カメラをかざす操作で文字を認識するインスタントテキスト(リアルタイムOCR)、
書類を撮影してからのOCR、
複数のページを撮影してからのまとめてOCR、
その他にもカメラロールから写真を読み込んだり、PDFファイルを読み込んで文字認識させることができます。

画面の最下行に配置されている「テキスト」タブを実行して、選択状態にします。

画面の左上端には「拡大」ボタンが表示されており、ここを実行することで、文字の拡大、色の反転などを利用できます。
拡大モードを終了するには、再び「拡大」ボタンを実行します。

画面の下から2行目には各種ボタン類が横に並んでいます。



__________目次の先頭へもどる__________
■3-1-1 インスタントテキスト「すぐに読み上げを始める」

「すぐに読み上げを始める」ボタンを実行すると、カメラに写る文字を次々に認識して読み上げてくれます。
このモードでは明るさを自動検知してフラッシュライトが点灯するようになっています。

読み上げモードを終了するには、「すぐに読み上げを終える」ボタンを実行します。

認識された文字は、VoiceOverの1文字読みなどでは確認できません。

読み上げてくれる状態のはずなのに認識されていない場合は、一度読み上げを終えてから、再び読み上げを初めると、うまく動作することがあります。



__________目次の先頭へもどる__________
■3-1-2 スキャンテキスト、写真を撮影してOCR「書類の読み上げ」

インスタントテキスト(すぐに読み上げ)では広い範囲を一度に認識処理してくれません。それとは別の方法として、スキャンテキスト機能が用意されています。
A4などの書類を文字認識させたい場合は、写真を撮影してから文字認識させると便利です。
このモードでは明るさを自動検知してフラッシュライトが点灯するようになっています。

また、認識結果はVoiceOverの1文字読みなどで確認できるほか、ファイル保存したり、メールで共有することができます。

「書類の読み上げ」ボタンを実行すると、画面の中央に「撮影」ボタンが表示されます。
その箇所を実行すると写真が撮影され、認識結果の画面に切り替わります。

また、撮影ボタンを実行しなくても、書類の四隅を検知して自動的に撮影する機能が備わっています。
「すべてのエッジを認識 そのままお待ちください」という案内が聞こえると、自動的に撮影されて、認識結果の画面に切り替わります。
A4の書類であれば、およそ30センチから45センチ離れた距離でiPhoneを持っていれば四隅を検知してくれることが多いです。
書類のサイズ、明るさの程度によっても検知の制度は変わります。

書類を撮影するときは、固定大などを利用すれば安定した画質の写真が撮影できます。


認識結果の画面では、画面の下部に六つのボタンが並んでいます。

  • 「再生」ボタン
    画面に表示されている認識結果を読み上げてくれます。再生中は「一時停止」ボタンに代わります。
    読み上げ音声の種類や速度の調整は、ヘルプの画面で行います。

  • 「Stop」ボタン
    再生を停止します。
    再生ボタンを実行すると、先頭から読み上げが始まります。

  • 「ライブラリに保存」ボタン
    認識結果に名前を付けて、アプリ内に保存します。

  • 「エクスポート」ボタン
    認識結果を共有できます。
    ・txtファイルとして保存
    ・クリップボードにテキストをコピー
    ・テキストを共有

  • 「サイズ」ボタン
    文字サイズを調整できます。

  • 「訳します」ボタン
    認識結果を指定した言語に翻訳します。



一つ前の画面に戻るには、画面の左上端に配置されている「戻る」ボタンを実行するか、スクラブのジェスチャーを利用します。



__________目次の先頭へもどる__________
■3-1-3 その他のOCR「その他のアクション」

「その他のアクション」ボタンを実行すると、二つの選択肢が表示されます。



__________目次の先頭へもどる__________
■3-1-3-1 複数のページをまとめてOCR

書類を撮影してOCRする機能では、写真を1枚撮影するたびに文字認識処理させることになります。
複数ページの書類を読みたい場合には都合がよくありません。
そこで、複数の写真を撮影してから一気に文字認識処理させることができます。

「複数のページを読む」ボタンを実行すると、「書類の読み上げ」と同じような画面になります。
四隅を自動検知しての自動撮影にも対応しています。
撮影するたびに何ページ撮影したのかを読み上げてくれます。

認識処理を開始するには「撮影が完了しました」ボタンを実行します。
認識結果の画面では、「次のページ」や「前のページ」などのページ切り替えボタンが表示されます。

認識結果が表示されると自動的にその内容を再生することもできますが、それについては
  • ■3-1-6 ドキュメントリーダー、認識結果やファイルの読み上げ機能について

  • を参照してください。



    __________目次の先頭へもどる__________
    ■3-1-3-2 ファイルを読み込んでOCR

    「Envisionライブラリ」ボタンを実行すると、カメラロールに保存した写真や、ファイルアプリ経由でPDFなどのデータを読み込むことができます。
    「ファイルをインポート」ボタン
    あるいは、
    「Import from library」ボタン
    を実行します。

    • 「メガネからインポート」ボタン
      エンビジョングラスに保存されているデータを取り込みます

    • 「ファイルのインポート」ボタン
      ファイルアプリを開いて、データを取り込む

    • 「画像をインポート」ボタン
      カメラロールに保存した写真を取り込む


    目的のファイル名の箇所を実行すれば、文字認識された結果が表示されます。



    __________目次の先頭へもどる__________
    ■3-1-4 Envisionライブラリについて

    「すぐに読み上げ」(インスタントテキスト)以外の方法で文字認識された結果は、アプリ内に保存することができます。
    この場所は「Envisionライブラリ」と名付けられています。

    認識結果の画面で、
    「ライブラリに保存」ボタンを実行します。
    ファイル名をタイプして、
    「保存する」ボタンを実行すると完了です。


    Envisionライブラリを閲覧するには、
    「テキスト」タブが選択されている画面で、「その他のアクション」ボタンを実行し、「Envisionライブラリ」ボタンを実行します。
    保存されているファイル名が一覧表示されています。
    目的のファイル名の箇所を実行すると、認識結果が表示されます。

    ファイルの削除や名前の変更を行うには、
    目的のファイル名の箇所で1本指の下スワイプか上スワイプを行います。



    __________目次の先頭へもどる__________
    ■3-1-5 認識結果の翻訳機能について

    「すぐに読み上げ」(インスタントテキスト)以外の方法で文字認識された結果は、他の言語に翻訳することができます。

    認識結果の画面で、画面の右下端にある
    「訳します」ボタンを実行します。
    すると、関連のボタンが画面の上部に表示されます。

    「翻訳から」の箇所から1本指で右スワイプを1回行うと、翻訳前のの言語を選択するボタンです。通常は認識された言語が自動選択されています。
    原文が日本語であれば
    「日本語 detected」ボタンと表示されます。

    「翻訳します」の箇所から1本指で右スワイプを1回行うと、翻訳後の言語を選択するボタンです。ボタンを実行して、言語を選択します。

    「訳します」ボタンを実行してしばらくすると、翻訳された結果が表示されます。

    原文表示に戻すには、
    「Hide 訳します」ボタンを実行します。
    ボタンは画面の右下端に配置されています。



    __________目次の先頭へもどる__________
    ■3-1-6 ドキュメントリーダー、認識結果やファイルの読み上げ機能について

    認識結果やEnvisionライブラリからファイルを読み込んだ画面では、ドキュメントリーダー機能を利用できます。
    「再生」ボタンを実行することで、画面に表示されている文字を連続読みしてくれる機能です。
    実はEnvisionライブラリから取り込めるファイルは文字認識処理を必要としないdocxやpdfも対象になっており、それらを連続読みさせることができます。
    また、前述した翻訳機能も利用できます。

    認識結果の画面には、次のようなドキュメントリーダー関連のボタンが表示されています。

    画面の右上端には、
    「リーダーの設定」ボタン
    この箇所を実行するとメニューが表示されます。
    • ・言語の自動検出のオン・オフ切り替えボタン

    • ・コラムの自動検出ボタン

    • ・テキストサイズの調整スライダー

    • ・自動再生のオン・オフ切り替えボタン

    • ・声の種類の選択ボタン

    • ・読み上げ速度の調整スライダー


    画面の下から2行目には
    • 「再生/一時停止」ボタン

    • 「Stop 停止」ボタン

    • 「前のページ」ボタン

    • 「ページ数」の表示

    • 「「次のページ」ボタン

    • 「ページジャンプ」ボタン


    ドキュメントリーダー機能の連続読みを一時停止したい場合には、VoiceOverの2本指ダブルタップ、マジックタップのジェスチャは利用できません。
    画面上の「一時停止」ボタンか「Stop」ボタンを実行する必要があります。

    認識結果が表示されると同時に、その内容を自動的に再生させることができます。
    「リーダーの設定」ボタンを実行して、
    「自動再生」ボタンをオンにしておきます。

    また、ページ数の多いファイルを読ませている場合には、指定したページ番号にジャンプする機能を活用できます。
    「ページジャンプ」ボタンを実行して、移動先のページ数をテキストフィールドにタイプして、
    「OK」ボタンを実行します。



    __________目次の先頭へもどる__________

    ■3-2 風景、色、バーコードにカメラを向ける「一般」


    画面の最下行に配置されている「一般」タブを実行して、選択状態にします。

    画面の下から2行目には各種ボタン類が横に並んでいます。



    __________目次の先頭へもどる__________
    ■3-2-1 物の名前や風景を教えてくれる「風景を説明する」

    説明してほしい物に向けて写真を撮影します。
    「風景を説明する」ボタンを実行すれば写真は撮影され解析結果が読み上げられます。
    結果は文字でも表示されます。

    「画像を説明付きで保存する」ボタンを実行すると、カメラロールにその写真が保存されます。
    写真アプリでその写真を確認すると、解析結果として表示されていた説明分が付けられています。

    Envisionに顔を学習させる機能を使って顔写真を登録している場合、風景の中にその登録されている人がいれば、名前を確認できます。



    __________目次の先頭へもどる__________
    ■3-2-2 色の名前を教えてくれる「色を検出する」

    カメラでかざすだけの操作で、色の名前を読み上げてくれます。
    「色の名前を検出する」ボタンを実行すると読み上げが始まり、再び同じボタンを実行することで終了します。
    このモードでは明るさを自動検知してフラッシュライトが点灯するようになっています。

    識別できる色の数は指定することができます。
    「ヘルプ」タブを選択状態にして、「色の検出」ボタンを実行します。

    「標準30色」
    「詳細950色」
    どちらかを選択状態にします。



    __________目次の先頭へもどる__________
    ■3-2-3 商品名を教えてくれる「バーコードをスキャンする」

    カメラをかざす操作でバーコードを読み取ることができます。
    スキャンできた場合には効果音で知らせてくれます。

    画面上に商品名が表示されて、「詳細」ボタンを実行すると、より詳しい情報が表示されます。



    __________目次の先頭へもどる__________

    ■3-3 人や物をみつける「スキャンして見つける」


    カメラで見回す操作で、登録されている人の顔や物を探すことができます。

    画面の最下行に配置されている「スキャンして見つける」タブを実行して、選択状態にします。

    画面の下から2行目には各種ボタン類が横に並んでいます。



    __________目次の先頭へもどる__________
    ■3-3-1 人を探す「人をみつける」

    登録されている人の顔写真があれば、カメラに写ったときに効果音とともにその人の名前が読み上げられます。
    顔寫眞が登録されていなくても、カメラで顔を検知すると効果音で知らせてくれます。


    「人をみつける」ボタンを実行して、カメラで見回す操作です。



    __________目次の先頭へもどる__________
    ■3-3-2 物を探す「物をみつける「

    登録されている物の中から見つけたい物を指定しておくことで、カメラにその物が移ったときに効果音とバイブレーションで教えてくれます。

    「物をみつける」ボタンを実行すると、見つけられる物ののリストが表示されます。
    目的の物の名前の箇所を実行すると、見回して探し出すモードに切り替わります。

    一度に複数の物を対象にできるわけではなく、あくまでも指定した一つの物だけを探し出せる機能です。

    物のリストが表示されている画面では、1本指の下スワイプか上スワイプをすることで、
    「お気に入り」への追加や削除ができます。



    __________目次の先頭へもどる__________
    ■3-3-3 顔写真を登録する「Envisionに学習させる」

    現時点では、顔写真のみを登録することができます。
    物の写真はユーザ自身で登録することはできません。

    「顔を学習させる」ボタンを実行します。
    少なくとも5枚の顔写真を撮影する必要があります。

    「撮影」ボタンを実行して、写真の撮影をつづけます。
    デフォルトでは背面カメラで撮影する状態になっていますが、フロントカメラに切り替えることも可能です。

    「完了」ボタンを実行すると、名前をタイプする画面に切り替わります。
    登録処理が行われます。

    登録された顔写真のリストは、
    「Envisionに学習させる」ボタンを実行して、「ライブラリーを開く」の箇所を実行します。
    「顔」の箇所が選択状態になっていると、登録された顔寫眞の一覧が表示されます。
    削除するには、名前の箇所で1本指の下スワイプか上スワイプを行います。「delete 削除」と聞こえたら、1本指ダブルタップで実行します。



    __________目次の先頭へもどる__________

    ■3-4 各種設定「ヘルプ」


    画面の最下行に配置されている「ヘルプ」タブを実行して、選択状態にします。

    設定とヘルプのメニューが表示されます。


    • 「アカウントの詳細」ボタン
      登録しているアカウント情報を確認できます。
      参加した日時、購読しているプラン、パスワードのリセット、確認メールの再送、ログアウトなどのボタンが用意されています。


    • 「サブスクリプションを確認する」ボタン
      購読するプランを選択し、購入手続きができます。


    • 「チュートリアルを読む」ボタン
      このボタンを実行した後の画面で「Japanese」の箇所を実行すると、日本語のチュートリアルが表示されます。


    • 「フィードバックを送る」
      開発者に質問やリクエスト、バグレポートを送ることができます。


    • 「通話をリクエストする」
      サポート窓口の人と電話で話したいとき、自分の電話番号を伝えることで、向こうから電話してくれるようにリクエストできます。
      日本語には対応していません。


    • 「ダークモード」のオン・オフ切り替えボタン


    • 「処理中のサウンド」のオン・オフ切り替えボタン
      文字認識など、処理中の効果音の切り替えができます。


    • 「オフラインでの文字認識」のオン・オフ切り替えボタン
      ラテン語にもとづく言語であれば、インターネットにつながっていないときにも文字認識できます。
      ただし、日本語には対応していないので、この箇所がオンになっていると日本語のOCR処理は行われません。


    • 「言語の自動認識」のオン・オフ切り替えボタン
      ここがオンになっていると、認識結果のテキストの言語を自動判定して、マルチリンガルで、その言語の音声で読み上げます。
      オフになっていると、デバイス環境で指定されている言語の音声だけで読み上げることになります。たとえば日本語環境でiPhoneを使っているのであれば、テキストは日本語の音声だけで読み上げられるわけです。
      もしも日本語の書類にもかかわらず他の言語の音声で読み上げられて聞き取りにくい場合、この箇所をオフにしておくとよいでしょう。


    • 「コラムの自動検出」のオン・オフ切り替えボタン
      書類を文字認識する時にコラムを自動検出するかどうかの機能です。


    • 「スピーチ」ボタン
      読み上げさせる声の種類と速度を指定できます。


    • 「色の検出」ボタン
      検出する色の数を指定します。


    • 「Siriショートカット」ボタン
      Siriショートカットの登録ができます。


    • 「3D Touchショートカット」ボタン
      コンテクストメニューに表示される項目を編集できます。


    • 「友達と共有」ボタン


    • 「レビューを書く」ボタン


    • 「Envisionについて」ボタン




    __________目次の先頭へもどる__________

    ■4 共有機能を利用して写真を認識させる


    アプリによっては共有機能を利用して、画像データをEnvision AIに送って認識処理させることができます。

    たとえば、写真アプリで任意の写真を表示させている状態では、画面の左下端に「共有」ボタンが配置されています。
    「共有」ボタンを実行して表示されるメニューの中から、
    「Envision it」ボタンを実行します。

    メニューの中に該当の項目が入っていなければ、
    「共有」、「その他」、「Envision it」の切り替えボタンをオンにする必要があります。オンにした後は「完了」ボタンを実行します。


    認識結果が表示されます。
    風景の説明と文字認識の結果は画面上に表示されて、
    「画像を説明付きで保存する」こともできます。



    __________目次の先頭へもどる__________

    ■5 その他のアプリで表示されている画像を認識処理させてみる


    インターネット上のウェブページを閲覧していたり、他のアプリでニュース記事を閲覧していると、画像を含んでいるコンテンツの多さに気づかされます。
    それらの画像の内容が代替テキストで説明されていれば、視覚障害のあるユーザにとっては少しは意味あるものとなりますが、説明なしの画像であればやり過ごすしかない情報となってしまいます。

    しかし、ニュース記事の場合、本文に書かれていない文字情報が画像の中には含まれていたり、あるいは本文のテキストよりも役に立つ情報が入っていることもあります。
    それらの画像の中の文字や風景をEnvision AIアプリで説明させることができれば、有用な情報源になってくれることでしょう。

    アプリによっては、用意されている共有メニューから直接Envision AIアプリに画像データを受け渡して、認識処理させることができます。
    また、共有メニューからEnvision AIアプリに送ることのできない場合は、カメラロールに写真や画像を保存することにより、前述の方法、
  • ■3-1-3-3 イメージを読み込んでOCR

  • ■4 共有機能を利用して写真を認識させる

  • これらの手順で認識処理します。

    風景の説明と文字認識の結果は画面上に表示されて、
    「画像を説明付きで保存する」こともできます。



    ■5-1 メールに添付された写真を認識させてみる


    写真などの画像データが添付されたメールを受信すると、本文を表示させた画面から添付ファイルを選んで開くことができます。
    本文の最後の箇所で添付ファイル名の一覧を確認することができます。

    VoiceOverは「添付ファイル」という読み上げに続いてファイルの名前を読み上げ、最後にデータ形式を読み上げます。
    「イメージ」とよみあげられたら、それは画像データです。
    ちなみにイメージという読み上げを確認できたら、3本指でシングルタップしてみると、iOS内で認識された画像の簡単な説明をVoiceOverは読み上げます。

    • 1. イメージの添付ファイル名の箇所を実行します。
      画像が表示されます。


    • 2. 画面の下端にある「共有」ボタンを実行します。


    • 3. メニューの中から「Envision it」ボタンを実行します。
      Envision AIの画面に切り替わり、認識結果が表示されます。
      「閉じる」ボタンを実行すると、前の画面に戻ります。




    __________目次の先頭へもどる__________

    ■5-2 Safariで表示されている画像を認識させてみる、カメラロールに保存して


    ウェブブラウザであるSafariアプリでウェブページを閲覧中、表示されている画像は直接Envision AIアプリに受け渡すことができません。
    したがって、その画像ファイルをカメラロールに保存するかダウンロードする必要があります。

    ウェブページに表示されている画像の箇所では、VoiceOverは項目名につづけて「イメージ」という要素名を読み上げます。
    ローター・カテゴリーを「イメージ」に合わせると、画像の箇所を見つけやすいです。

    画像の箇所をフォーカスさせている状態で、1本指のダブルタップ&ホールドを行います。
    あるいは、1本指のトリプルタップを行います。
    コンテクストメニューが表示されるので、その中から
    「写真に追加」ボタンを実行します。
    これでカメラロールに画像データを保存できます。

    保存した画像データを削除するには、
    写真アプリを開いて該当の写真を削除してください。



    __________目次の先頭へもどる__________

    ■5-3 Safariで表示されている画像を認識させてみる、ファイルをダウンロードして


    画像の箇所をフォーカスさせている状態で、1本指のダブルタップ&ホールドを行います。
    あるいは、1本指のトリプルタップを行います。
    コンテクストメニューが表示されるので、その中から
    「写真に追加」ボタンを実行すればカメラロールに保存できるわけですが、もし「写真に追加」というメニューが見つからなければ、画像ファイルをダウンロードすることで操作できます。

    • 1. 選択肢の中から、
      「リンク先のファイルをダウンロード」ボタンを実行します。
      これで画像ファイルをiOSのファイルアプリ内の「ダウンロード」フォルダの中に保存できます。


    • 2. ダウンロードされたファイルを表示させるには、Safariの最上部でアドレス入力欄が表示されているメニューバーの右端にある「ダウンロード」ボタンを実行します。


    • 3. ダウンロードされた最新のファイルが表示されるので、そのファイル名の箇所を実行します。


    • 4. 画面の下端にある「共有」ボタンを実行します。


    • 5. メニューの中から「Envision it」ボタンを実行します。
      Envision AIの画面に切り替わり、認識結果が表示されます。
      「閉じる」ボタンを実行すると、前の画面に戻ります。



    ダウンロードした画像データを削除するには、
    ファイルアプリを開き、ダウンロードという名前のフォルダを開き、該当の画像データを削除してください。



    __________目次の先頭へもどる__________

    ■5-4 Twitterの発言に添付されている画像を認識させる


    公式のTwitterアプリでTwitterの発言を閲覧している場合、投稿に添付されている画像をEnvision AIで認識させることができます。
    寫眞アプリで画像を認識したのと同じような手順です。

    まずは公式Twitterアプリでタイムラインを表示します。
    画像が添付されている投稿があれば、その箇所を1本指のダブルタップで実行して、その発言の詳細画面を表示します。
    画像、風景、イメージなどとVoiceOverが読み上げる箇所があれば、それはEnvision AIで認識できる画像です。

    イメージの箇所を実行すると、画像がフルサイズで表示されます。
    画面の右上端にある「その他のアクション」ボタンを実行すると、共有メニューが表示されるので、「Envision it」の箇所を実行します。
    メニューの中に該当の項目が入っていなければ、
    「アクションを編集」を実行して、「Envision it」の切り替えボタンをオンにする必要があります。オンにした後は「完了」ボタンを実行します。



    __________目次の先頭へもどる__________

    ■6 簡単な操作でアプリの機能を呼び出せる「Siriショートカットとコンテクストメニュー」


    目の前にある書類の内容を文字認識したいときの操作は、iPhoneのロックを解除して、ホーム画面からアプリを開き、「すぐに読み上げをはじめる」ボタンを実行するという手順になります。
    この手順を簡略化することができます。



    __________目次の先頭へもどる__________

    ■6-1 Siriで呼び出すための「Siriショートカット」


    Siriにリクエストするフレーズを登録することで、Siriから確実にアプリの機能を呼び出すことができます。
    iPhoneのロックを解除しておく必要がありますが、ホーム画面からでも、他のアプリを表示している状態でも、Siriにそのフレーズをリクエストすれば直接アプリが起動して、たとえばリアルタイムに文字認識してくれるモードになってくれます。

    設定するには、画面の最下行に配置されている「ヘルプ」タブを実行して、選択状態にします。
    「Siriショートカット」ボタンを実行します。
    次のアクションにフレーズを割り当てることができます。
    • ・すぐに読み上げをはじめる

    • ・書類の読み上げ

    • ・PDFを読んで

    • ・画像を読んで

    • ・風景を説明する

    • ・色を検出する

    • ・バーコードをスキャンする

    • ・人をみつける

    • ・物をみつける


    たとえば「すぐに読み上げをはじめる」というアクションをSiriショートカットで利用できるようにしてみましょう。

    「すぐに読み上げをはじめる」の箇所を実行します。
    テキストフィールドにはSiriにリクエストしたいフレーズをタイプします。
    デフォルトのフレーズのままでよい場合は編集する必要はありません。
    「Siriに追加」ボタンを実行すれば完了です。
    Siriにそのフレーズで話しかけて、そのアクションが実行されるかどうか確かめてみてください。
    声ではなく、タイプ入力でSiriにリクエストする設定にしている場合は、そのフレーズをタイプします。

    アクションの一覧が表示されている画面では、すでにSiriショートカットに追加されている項目の箇所を実行すると、フレーズの変更や、Siriショートカットから削除することができます。



    __________目次の先頭へもどる__________

    ■6-2 ホーム画面からコンテクストメニューでアクションを呼び出す


    ホーム画面上でEnvision AIアプリのアイコンを1本指でダブルタップして実行すると、そのままアプリが起動します。
    そうではなく、コンテクストメニューを表示させて実行したいアクションを選んで開くことができます。

    ホーム画面でEnvision AIアプリのアイコンをフォーカスさせたら、1本指のダブルタップのジェスチャーではなく次の操作を行います。
    3D Touch対応のiPhoneであれば、画面を押し込みます。
    iOS 13において、3D Touchに対応していない端末の場合は、1本指でトリプルタップします。
    あるいは、1本指でダブルタップ&ホールドします。その場合は効果音や振動が確認できたら、指を画面から離します。ホールドの時間が長いと、約2秒ほど指をタッチしたままにしているとホーム画面の編集モードに切り替わってしまうので気を付けてください。

    コンテクストメニューが表示されたら、実行したい項目名を1本指でダブルタップします。すると、Envision AIはそのモードで起動します。


    設定するには、画面の最下行に配置されている「ヘルプ」タブを実行して、選択状態にします。
    「3D Touchショートカット」ボタンを実行します。

    現在コンテクストメニューに表示されるアクションの一覧と、追加できるアクションの一覧を確認できます。
    ここでは、メニューに表示させたいアクションの追加、削除、並べ替えの操作ができます。



    __________目次の先頭へもどる__________

    ■7 関連情報


    第19回 iPhoneアプリ Envision AI - ニポラチャンネル YouTube
    https://www.youtube.com/watch?v=LhnecGgWWRY

    公式HP Envision - enabling vision for visually impaired
    https://www.letsenvision.com/

    公式Twitterアカウント Envision AI(@LetsEnvision)
    https://twitter.com/letsenvision

    「最高」と評価されたAndroidアプリ9種類をGoogle Play Awardが発表、パズルゲームからデザイン作成アプリまで - GIGAZINE
    https://gigazine.net/news/20190508-google-play-awards-2019/

    スマホカメラで見る世界 進む自立支援、視覚障害者向けアプリのいま (1/2) - ITmedia NEWS
    https://www.itmedia.co.jp/news/articles/1806/15/news019.html

    アクセサリーの紹介 -- Envision AIアプリのチームが開発したスマートグラス「エンビジョングラス」 with iOS Voiceover
    http://voicei.seesaa.net/article/479620835.html?1611123444

    エンビジョングラスとビデオ通話する相手を協力者として登録する方法、協力者が使用するアプリ「Envision Ally」 with iOS VoiceOver
    http://voicei.seesaa.net/article/479620894.html?1611123727



    __________目次の先頭へもどる__________

    posted by @voice_of_i at 22:00| Comment(0) | 生活に役立つアプリ | このブログの読者になる | 更新情報をチェックする