2023年5月20日土曜日

期待している技術2点

今回は個人的に注目している話題(テクノロジー)を2つ紹介します。
1つは網膜投影、もう1つはAI VTuberです。
1つのページにまとめてますが関連性なく全く別々の話題です。

今回、取り上げる2つの話題は簡単な紹介と今後想像できるユーティリティの話でまとめます。
両方ともまだ出始めのものでムーブメントが訪れているわけでもありませんが、おそらくこの先数十年〜と続くテクノロジーアイテムになると思います。

 1  網膜投影デバイス 
まず最初は網膜投影。
直接的に網膜に絵を投影する網膜投影という手法自体はずっと前から存在していましたからHMD絡みで名称を聞いた記憶のある方は多いかもしれません。
但しそれがどのくらい便利なことなのか…までは今まで具体的な説明は少なかったように思います。

※網膜投影についてはこのPDFに詳しく書かれています

 1-1  網膜投影ファインダー 
…が、今年3月にSONYが発表したデジカメへの応用例を見てロービジョン者へ向けた具体的な技術がやっと表に出てきたと実感しました。
※DSC-HX99 RNV kit(網膜投影ファインダー部分はQDレーザ社製です)


網膜投影は角膜や水晶体が原因となる近視遠視乱視老眼関係なく最大視力というか機器の性能限界(現在は1280×720ピクセル)で風景を見せてくれます。

網膜さえ無事ならば眼球の硝子体も水晶体のコンディションはスルー… まぁ、硝子体出血で硝子体が濁っていたらダメですけど今は手術で完全除去も期待できるので…ともかく網膜さえ無事なら大丈夫。


 1-2  網膜投影-メガネ による視覚拡張 
そしてこの網膜投影の技術は当然「眼鏡」へも応用されていきます。
メガネタイプの製品写真を見ていると、映像を取り込む(オプションの)カメラ部分がまだまだ大きいですがスマホカメラ並の超小型化は今現在の技術でも問題ない筈なので何れ普通の眼鏡として常用できるものになりそうな気がしてきます。


現行の眼鏡…を完全に置き換えはしないけど眼鏡と同じように医療機器として選択肢の1つとして広まっていけばいいと思います。実際、一部の眼鏡屋さんにデモ機置いています。

もちろん将来 常用としての眼鏡を目指すなら視差も必要になりますから両眼用にカメラ取り付けて網膜投影も左右両方に行うことになるでしょうけれど視力補助具として見るとだいぶハイテクというかちょっとサイバーチック。
人体に手を加えているわけではないけれど装置っぽい違和感は拭えないので一般層へ浸透させるにはこの部分の改善は必要でしょうね。

もちろん目の前に来る投影部はそこそこ大きいので(バッテリー切れなどで)機能していない時は邪魔でしかありません。バッテリー稼働時間は180分だそうです。
透けて見えているのが網膜投影デバイス



写真はカメラをフレーム中央部に埋め込んだプロトタイプ。

でも個人的にはこういう機器が次世代の眼鏡になっていくことについて肯定的に捉えていますし全国の眼鏡屋さんで普通に扱われるようになるといいなと思います。
尚、写真はRETISSA Display IIで…オプションのカメラを付ける以外にHDMIの映像入力もでいます。


 1-3  補足情報 
以下、網膜投影とは直接関係はありません。
時代遡ると1996年にSONYから民生向けHMDであるグラストロン(PLM50)が登場しています。

HMDとして見た場合、誕生から既に30年近く経過している今でも普通に存在していそうなサイズとデザインですが、特に変化が起きていないのは…つまりHMD自体がウェアラブル目指しての小型化をそれほど重要視していなかったからかもしれません。
グラストロンの元々の用途が映像コンテンツ鑑賞ですし「眼の前の宙に浮かぶ大型スクリーン」が命題だったみたいですしね。

ところでこのグラストロンのシリーズ名はフェードアウトしていますがHMDに求めるものが目の前に映る大きな映像のみでなく臨場感のあるゲーム体験とVRでの使用を期待するようになったのが理由のようです。
このVR対応HMDの大きな流れを作ったのが2013年のOculus Rift登場だと言われています。

一方、下の写真はHMDとは微妙に違う用途のために誕生した片目用ディスプレイの例です。
プロトタイプのTeleglassで小さい液晶モニターを目の前に配置する方式のデバイスです。
解像度は800×225…すごく低い画素数に感じますが、この頃のPDAやモバイルノートの解像度を考えるとこんなもんだと思います。
実際に自分で使っていたモデルですが、のちのGoogle Glassやスカウター型のデバイスと同じ用途を目指していたと思えばイメージしやすいかもしれません。


今回紹介した網膜投影の眼鏡はその用途を考えるとHMDよりはこちらに近いかなと思います。

スカウター:ドラゴンボールに登場。相手の戦闘力や対象物の位置、距離を表示するデバイス。





ここからは話題がガラッと変わります✿

 2  AI VTuberを参考にして   ーAIで動くキャラクターを考えてみる

中の人がAI化されるAI VTuberは(誰もが考えるという意味で)正常進化だと思います。
ここではサンプルとして2022年暮れに誕生したAI VTuberNeuro-samaを取り上げていますが、本題はAIで動くキャラクターの活用範囲の模索です。

 2-1  今の時点でNwuro-samaができること 
先ずは…Neuro-samaができることを見てみてライバー以外の用途をイメージしてみて下さい。
現時点でNeuro-samaが可能なことは以下の通りです。

 活動開始日  2022年12月19日 (AI誕生は2019年5月5日)
 AIプログラム言語  Python (AI作者 Vedal
 
 コメント理解と返答  可能(ライブ中にチャットコメントへ返答する)
 雑談と独り言  可能(かなり得意。但し毒舌)
 ゲーム配信  可能(習得済→リズムゲームosu!・ポケモン・Minecraft)
 コラボ配信  可能(音声認識のプロセスが入るので少し反応が遅れる)
 歌配信  可能(機械音声っぽい部分もある)
 動画視聴  可能(動画の内容を認識でき感想も言える)
 チャンネルBAN経験  有り(倫理エラーによる暴言が原因)


「そこ私のお気に入りのサブルーチンだから消さないで!」


 2-2  チャットを読みゲームもできて長時間配信も可能 
さて、Neuro-samaは登場からまだ半年程度ですがゲームをやる傍らチャットコメントも読んで対応しストリーマーとして長時間ライブ配信も可能なところを既に見せているのですが、やっていることが人間のVTuberと同じなので最初これを見た時は驚きました。

下の切り抜きはMinecraftをやりながらライブ配信中のNeuro-sama

動画尺:42秒

Minecraftは最初ルールを全く知らない状態で始めました。
何の知識も持たない状態ですから最初は方針を決めて動くことすらできず細かく振動する状態。
でもチャットに書き込まれるアドバイスを参考にしながら少しずつ知識をプラスさせていき配信後半では上級スキルを使いこなすまで成長しています。

 2-3  音声による会話 
Neuro-samaはチャットを読む以外にコラボ相手の発言を音声認識で理解し会話することもできるので見ていると普通のVTuberとあんまり変わりません。つまり人間と同等のことができています。
以前キアラとコラボしていたので面白い箇所を切り抜いてテロップ付けてみました。

なんとなく会話が成立してるということと、けっこう喋るということがわかればOKですから、早く流れる日本語テキストは読まなくても大丈夫です。。

動画尺:2分26秒 (この切り抜きの元配信はこちらです。Neuro-samaの配信はこちら

ただ、Neuro-samaは(毎回そうですが)コラボにあまり積極的ではなく開始早々に終了を告げ帰ろうしたり相手に対して塩対応であったり全く別の話題を話し始めたりします。
既に個性が形成されているように感じます。


個人的にキャラクターのAI化に期待を抱いたのが Live2Dがスマホアプリで採用され始めた2011年頃ですが、リアルタイムに2Dキャラクターが動かせるツールが登場したのならその操作はAIがいいのかな…と漠然と思いました。

そして(2年前にVTuberの話題を部活で取り上げた際にも触れていますが)AI VTuberの登場を確信したのがウェザーロイドが登場した頃です。
ただ、その当時はAIで動くキャラクターが世に出てくるのは2025年以降になると予想していたのでNeuro-samaは若干早い登場です。


動画尺:6秒 口癖(驚いた時とかミスした時にこの状態になります)

 2-4  ディープラーニング 
ここからはAIを支えている手法の話に移ります。
現在は第三次AIブームと言われ既に20年程度続いているらしいのですが、最近特にAIに有用性を感じるようになったのはエキスパートシステムからディープラーニングに変わったことが大きいみたいです。…以前AIと言われていたものと明らかに反応が異なるので説得力ありますね。

エキスパートシステム(上図では一番外側)は質問者が求めている解答をIF〜THENで絞り込んで行き解答を出力します。入力されていない解答について答えることはできません。

一方、ディープラーニングは人の脳をシミュレートすることで深層学習を可能にする手法です。
この手法は物事の認識精度が格段に上がりますが、身近な使用例で言うと画像認識・自然言語処理があります。そして何かを創造する能力にもつながって行きます。

下図はディープラーニングの仕組みを図にしたものですが中間にある隠れ層が3層以上あるニューラルネットワークのことをディープラーニングと呼びます。
 

→ 出力層で得られた結果を教師データ(正解サンプル)と照合。
→ 出力層から入力層に向けて誤差の修正と調整を行う(誤差逆伝播)
更に適切な学習を行うことが可能になり効率と賢さがアップします。


 2-5  画面にはキャラクターが必要? 
冒頭ではわかりやすい例としてAI VTuberのNeuro-samaを紹介しましたが、今回はVTuber界隈の話がメインというわけではありません。

すごくシンプルな話ですけれど今回この話題を取り上げた理由はNeuro-samaを見て、
AIにより能動的に動けるキャラクターは用途が広い…と再認識したからです。
そしてディープラーニングで状況により柔軟的に対応可能なAIで動作するキャラクターならば現実的なツールとして活用範囲が広がっていくのは間違いなさそうに思えます。

以下、情報表示の際の画面構成・演出の話になります。
単純な固定情報ならば必要ありませんが学習や動的情報へ人の関心を向けるにはイメージキャラクターによるアシスタントやサポートの存在が重要なことが既にわかっていて採用されています。
これはセサミストリートやNHK教育番組にキャラクターが登場する例を見ても分かる通り古くから取り入れられている方法です。

子供向けコンテンツだからという理由ではく、人の性質がコミュニケーションを求めるからです。

今までは生身の人間・人形・着ぐるみ・アニメでしたが、状況に合わせてAIで臨機応変に動けるキャラクターがあるのなら…このアシスタント・サポート・コンテンツ進行役の一部はAIキャラクターに置き換わる可能性がかなり高いと思われます。

その際のキャラクターは動物や何かの擬人化・アニメキャラ風と色々考えられますし使用者が選択できるようするのが良いと思われますが個人向け情報端末のアプリには特に向いているでしょうね。

尚、動的情報とは逐次変化する状況に合わせ選択的に提供される情報です。

  • 教育/レッスンプログラム
  • ナビゲーション
  • マネジメントサポート
  • ライフサポート
  • オペレーションマニュアル
  •  個人向け気象情報(超ローカルなお天気番組が想定される)

などあげていくとキリがありません。
※何れもキャラクター表示/非表示のどちらが適切かはケースバイケースです。

将来はホームコンピューター…具体的には日々の生活を見守りアドバイスを行うツールにAIが広まっていくものと思われますが、さしあたりはスマホやタブレットに常駐するような対話型AIアシスタントアプリ…つまり個人のサポートを行うAIキャラクターあたりから始まるのかもしれません。

0 件のコメント:

コメントを投稿