らんだむな記憶

blogというものを体験してみようか!的なー

画像の拡大とか縮小とか

ラスター画像のデータ - らんだむな記憶で画像をスケール変換して正規化しないとダメかなぁとかぼんやり。
Python - アンチエイリアスで写真をキレイに縮小 - Qiitaを見ると、PILでいけるっぽいのでFreeTypeで文字を書く - らんだむな記憶に戻って、Image.frombufferで吸い取ってスケール変換して再度numpy.arrayに戻して縦横でのヒストグラムをとれば128次元の特徴空間とかで扱えそう。
っても「i」とか「I」とか「l」とか「-」とかをそのbounding boxを強制で64x64に引き延ばすと全部「■」みたいになって宜しくない。片側だけ引き延ばして、もう片方は白埋めするだけにとどめたほうがbetterか?

これくらいで比較データセットが1つしかない場合でもそこそこ類似判定できそうな気がする。データセットがN個あるなら学習にかけてより良い分類器が作れるかもしれない。
やみくもに学習にかけるよりはデータの特性に合わせてプリプロセスを実行したほうが良さそうに感じるが実際はどうなんだろうか。
何にせよ、学習モデルを組み立てるスキルがイマイチないのでそもそもちょっと避けてる部分もあるが...。
Courseraのやつの手書き文字判別器のコードをpythonに落とすのが一番楽だろうか。それにしても面倒くせぇ...