2018年4月1日日曜日

20180401 FX-AUDIO PH-A2J



あーあーあー聞こえますか?
すごいちゃんと変換する。
今、音声入力でブログを書いています。

勝間さんが、何度も何度も音声入力についてブログで取り上げていらっしゃるので、
私も挑戦してみました。
勝間さんが推薦する Google ドキュメントの音声入力です。

確かに句読点が入らないのが気になりますが、誤変換は少なく音声もよく聞き取ってくれます。
キーボードの入力より格段に楽になりました。

今までポチポチとキーボードを打ちながら、文章を考えていたので気付きませんでしたが、
音声入力だと自分の思考が、こんなにゆっくりしたものなのかと、ずいぶん残念な感じが
しています。
思考がゆっくりで、途切れ途切れで、まとまりがないのです。


昨日に引き続き Raspberry Pi の機械学習をやってます。
あやめの分類は、サポートベクトルマシンによる方法と多層ニューラルネットワークによる
方法を試すことができました。


多層ニューラルネットワークについては、出力結果と正解との誤差をフィードバックし
正解率を高めていくという方法が取られます。

100個のニューロンに、150体のあやめの4種類のデータを与え、3種類のあやめに分類する
のですが、その分類方法を機械が自ら学習するというものです。

それぞれのニューロンの出力が、多数決方式でまとめられて最終回答となって出力されます。

うまく機能するものだと感心しました。

学習させる時間と正解率はほぼ比例して高まりますが、最適解が得られたかどうかは
明確ではありません。
この中途半端さがまた面白い。

しかも、与えられた150個のデータに最適化しすぎると、新たに与えられるデータの分類に
誤りが増えてしまうということもあるようです。

最初に与えられるデータ量が多いほど、新たな入力に対する正答率が高まる。
しかし、学習には時間がかかる。

機械学習って何?
という状態から、こういうものなんだという感触は得られたように思います。
この写真は、Raszberry Pi3の出力機器。

3月30日に発売されたヘッドフォンアンプPH-A2Jに、HDMIから分離した音声信号を入れてイヤホンで聴いています。

EIZOのディスプレイにはスピーカーが内臓されていないので、HDMIから音声信号を分離できるHAC-D2J+とヘッドフォンアンプPH-A2Jはなかなか快適です。