MIT が視覚障害者向けの音声起動型拡張現実デバイスを開発
MITメディアラボの研究者 (マサチューセッツ工科大学, 欧州連合) 小型カメラを搭載した拡張現実リングを開発しました, プロセッサー, Bluetooth 接続とウェアラブル デバイスを介した聴覚フィードバック, 視覚障害者が物体を識別し、テキストを読むのに役立つ可能性がある.
の数人の研究者によるプロジェクト MITメディアラボ 私たちの周りの世界についてもっと学ぶための方法を指さすことを目的としています, 人差し指には特別な指輪をつけ、ポケットにはスマートフォンを入れている. アイリングという名前で, デバイスは指に装着され、オブジェクトをポイントできるようになります。, 写真を撮ってそれについての情報を聞く.
このプロジェクトはパティ・メイズの発案によるものです, マサチューセッツ工科大学の教授で、直感的かつ斬新な方法でデジタル情報と対話できるインターフェースの研究に専念. 当初は視覚障害者の潜在的な補助として考えられました, アイリングはナビゲーションや翻訳補助としても機能する可能性があります, または子供たちが読むことを学ぶのを助けるために, 関係者の研究者らは言う.
エル・アイリング, 現在は 3D プリンターを使用してプラスチックに印刷されています, 小型カメラが含まれています, プロセッサーとBluetooth接続. 使用するには, 小さなサイドボタンをダブルクリックして、リングの機能を決定するコマンドを与える必要があります。 (現在、コインを識別するように構成できます, 文章, ラベルと色の価格). もっと情報が欲しいものを目指す必要があります。, たとえば棚の上のシャツ, ボタンをクリックして写真を撮ります. 画像はBluetooth経由でスマートフォンに送信されます, アプリはコンピュータ ビジョン アルゴリズムを使用してデータを処理し、見たものを大声で発表します。 (「ヴェルデ」, 例えば, シャツの色について知らせる). 結果はスマホ画面にも表示される.
”携帯電話をポケットやバッグから取り出して開く必要がないのは大きな利点だと思います”, パティ・メイズを指名した. 今まで, 研究者らは、Google の Android ソフトウェアを実行するスマートフォンと Mac コンピュータで Eyering を動作させることができた, シルクロットを産む, MITメディアラボ流体インターフェースグループの大学院生, あなたは Maes と一緒にデバイスを開発しています. iPhoneアプリも開発中です。. このグループは視覚障害のある人々に対してアイリングテストを実施しました。.
この記事は気に入りましたか?
購読してください ニュースレター そして何も見逃すことはありません.



