Googleは4月28日、アクセシビリティ機能に関する記者説明会をオンラインで開催。同社のアクセシビリティへの取り組みについて解説しました。「アクセシビリティ」とは一般的に、身体が不自由だったり機能低下を抱えるユーザーを含むすべてのユーザーがコンテンツを使用でき、その機能を操作できること。今回はAndroid向けに提供する「音検知通知」「アクションブロック」、Google Meetで利用可能な「ライブキャプション」といった機能が紹介されました。

音検知通知は、2020年10月から提供されている、スマートフォンのマイクから得た周囲の音をリアルタイムに文字にして通知する機能。危険な状況に発展する可能性がある警報や生活に関連する音を検知すると、スマートフォンやスマートウォッチに文字で通知を受け取ることができます。端末上で処理を行い、オフラインでも利用可能な機能。

具体的には、ユーザーのニーズが高かった下記10種類の音を通知します。ライブビューで今起きていることを見て確認できる他、過去12時間の履歴をさかのぼって確認することも可能。

1. 煙・火災警報
2. サイレン
3. 大声
4. 赤ちゃんの声や音
5. ドアホンのベルやノック
6. グラスなどが割れる音
7. 犬の鳴き声
8. 家電の音
9. 水の流れる音
10. 固定電話の着信音

同社は世界中のさまざまな音を収集し、機械学習に活用。データベースに収集したオーディオセットは2017年からウェブ上で公開し、研究機関や学術機関が利用しているとのこと。

AudioSet
https://research.google.com/audioset/index.html

同じ火災報知器の警報でも、内容は国や地域によって異なります。例えば日本では火災報知器がサイレンとアナウンスの音声で警報を鳴らすことから、機械学習でアナウンスも含め警報だと認識するように学習しているそうです。

音検知通知は、Androidスマートフォンに「音声文字変換&音検知通知」アプリをインストールし、設定の「ユーザー補助」から設定して利用を開始します。

アクションブロックは、2020年5月から提供を開始した、認知機能に障害のある人や高齢者がAndroidを利用しやすくするユーザー補助機能。ホーム画面にカスタマイズ可能な大きいサイズの
ウィジェットを配置し、電話をかける、ニュースを読むなど日常生活で役立つ機能を少ないステップ数で呼び出せるようにするもの。ブロックをタップすると、Googleアシスタントが対応するタスクを実行します。

ウィジェットは配置とサイズ、画像と文字、画像のみ、文字のみとデザインがカスタマイズでき、画像と文字の内容は自由に選択が可能。

日本のユーザーのニーズを調査したところ、電話をかける、SMSやメールを送る、写真を共有する、といったコミュニケーションと共有の機能にニーズがあることが判明。コロナ禍で人と会いにくい今こそ、特に有用性が増していると認識しています。

最近では、とっさに声が出ない場合にボタンを押すだけで「私を助けてください」と読み上げる「スピーキングブロック」の機能が追加されています。

アクションブロックの機能は、Google Playストアから「アクション ブロック」アプリをインストールして利用が可能。

Google Meetのライブキャプション機能は、耳が聞こえない人や難聴の人に役立つだけでなく、外国語を学び始めた人にも役立つ機能。現在は英語、フランス語、ドイツ語、ポルトガル語、スペイン語向けに提供しています。今後も言語を追加する予定で、時期は未定ながら日本語にも対応を予定しているとのこと。Chromeブラウザでは、英語のみライブキャプション機能の提供を開始しています。

情報提供元: ガジェット通信
記事名:「 Googleがアクセシビリティへの取り組み「音検知通知」「アクションブロック」「ライブキャプション」を解説