<Pick Up> This app uses machine learning to let your iPhone see the world for itself
オークランドのアート&テクノロジー・スタジオ「Disc Cactus」が、機械学習を利用したiPhoneアプリ「AI Scry」をリリースしました。
このアプリは、iPhoneのカメラで捉えた対象がどのようなものかを自動生成されたテキストで説明します。例えば、カメラを白い皿の上に載せたピザのような「物体」に向けると、音声とともに「a piece of pizza sitting on top of a white plate」等、該当する可能性がありそうな何種類かのテキストが表示されます。
また「物体」を認識するだけでなく、ハサミで何かを切るような「動作」に対しても「a person is cutting a piece of paper」等、複数のテキストがiPhoneの画面に表示されるといった具合です。
機械学習の長所や短所を楽しいエンターテイメント風に示すことを目的としたこのアプリ。iPhoneにあたかも人格があるかのように見せるために、スタンフォード大学のAndrej Karpathyが手がけるオープンソースのニューラル・ネットワーク「Neural Talk」を用いています。
とはいえ、現時点では実用性に欠ける「AI Scry」ですが、今後のテクノロジーの進歩によって、視覚障害者が身のまわりの物を認識する手助けをするツールなどに応用されることが期待されます。いずれにせよ、機械学習が持つ可能性を感じさせてくれます。
AI • Scry from Consortium for Slower Internet on Vimeo.
(執筆:RAY YAMAZAKI)
BRIDGE Members
BRIDGEでは会員制度の「Members」を運営しています。登録いただくと会員限定の記事が毎月3本まで読めるほか、Discordの招待リンクをお送りしています。登録は無料で、有料会員の方は会員限定記事が全て読めるようになります(初回登録時1週間無料)。- 会員限定記事・毎月3本
- コミュニティDiscord招待