« 2013年5月 | トップページ | 2013年7月 »

2013年6月の18件の投稿

2013年6月30日 (日)

人間自転車で悩む

顔が気持ち悪いとか、なんで裸なんだ?ということはたいして問題ではないが、「顔が私(筆者)に似ていて気持ちが悪い」というのはやめろ。裸に見えるのは私の画力が足りないせいで、これは体にピッタリのボディスーツを着ているのだ。ちゃんと靴を履いているのは分かるだろう?

Sbsh0611
人体の絵なんて描きたくなかったのだが、人体を自転車の一部にしてみたらどうだろうか? という提案なので描かざるを得なかったのだ。

回転する前輪の車軸を直接握るわけにはいかないから、車軸とは固定されずに自由に回転するグリップを付けてそれを握る。トレーニング機器でそういうのがあったと思う。

後輪が問題で、なんとなくニーグリップで固定しつつ膝立ちしているような体勢で体重を支える事ができるんじゃないか、と。でも出来れば膝のちょっとスネ側で体重を支えるようにすると、膝をサスペンションとして使うことができる。

左右の膝カバーは結合されていなければならないから、その渡り(つなぎ)の部分がちょうど泥除けというか、人体の大事な部分(股間)を後輪から護る役にもたつはずである。

このままでは動力がないので、ダウンヒル専門にするか、あるいは水平ドルフィンキック(魚が尾ひれを振って進むように)で推力を得ることになる。

後輪と膝カバーのあたりにモーターを積むことも可能だろうが、そうすると電池を背中か腹にくくりつけることになり、さらに手でアクセルを操作しないといけない。前輪ハンドルの構造上、バイクのようなアクセルにはできないので、水上スキーのようなアクセルレバーを指で操作することになるだろう。

問題はブレーキで、これは前輪ハンドルにレバーの形でつけることになるのだろうが、ブレーキの機能として前輪の回転を止めようとするわけだが、その止めるトルクを何で受け止めるかというと、この絵のままでは手のグリップ力で支えるしかない。

握力だけではブレーキの反作用を受け止めきれないので、強力なブレーキを装備するには左右の前輪ハンドルを結合させてそこからレバーを伸ばし、身体の何処かで受け止めるしかないだろう。腕で受けてもいいが、転倒した時のことを考えると腕が簡単にポッキリ折れそうで恐ろしい。さりとて、レバーを腹まで伸ばして身体で受け止めるのも怖い。ここは考えどころだなぁ。補助輪を前に出してブレーキを支えるか? それもなにか本末転倒っぽいなぁ。

でもこういうことを考えているやつは世界中探せば絶対どこかにいるはずだと思って、「
Human Bicycle」とか「Bodyless Bicycle」でWEBやYoutubeで検索してみるのだが、いないものだなぁ。自分でやろうという気力も体力も胆力もないものだから、誰かが試して豪快に大転倒とかした動画を公開してくれると嬉しいのだが。

| | コメント (5)

2013年6月29日 (土)

歌詞から曲を作って悩む

「Understand Me」という曲を作って面白かったので、同じように頭に浮かんだ英語のフレーズを元にまた曲を作ってみたりしてみた(あ、実はUnderstnad Meも完全に出来たというわけではなかったりするのだが)。下手くそなアドリブを善意の人様の前でやるよりはよほど生産的行動なのではないかと思ったりもする。

今回作った曲は一連の「否定的行動フレーズ」のなかの一つで、ちょっと話がそれるが、知り合いのAmaduosさんの曲にタイトルをつけさせていただいたことがあって、それが「出さなかった手紙」というのだが、Amaduosさんの「Sounds In Sound」というCDに入っている曲で私の好きなのがあって、しかしそのタイトルが「思いつかない」という、「曲作ったけど、タイトル思いつかないんだよね」という実に正直な本音の吐露だったりするのが実に惜しいなと思ったのだった。

そんなAmaduosさんがiTuneに曲を登録するにあたって、英語でタイトルをつけるという話になり、私の「出さなかった手紙」が採用されたのだった。英語でどうなったのだろうか? 「The Letter Unposted」だったかそれとも他の訳になったのか、iTuneを持っていないので知らないんだけど。

Amaduosさんの「Sounds In Sound」はAmaduosさんのホームページで試聴出来ますが、「思いつ ない」は公開されていないようです。でも、Amaduosさんの了承を得てこのBLOGのどこかで公開していたんじゃないかと思うので、探してみると見つかるかも。

そういった「否定的行動シリーズ」には、「言えなかった嘘」とか「行かなかった場所」とか「会わなかった人」とか、まぁいくらでもできるんだろうけど、今回は「言えなかった嘘」を「The Lie I could'nt Tell」として元ネタとした。

こんなふうに歌詞を先に作ると、なんというか、その歌詞から力をもらえるというか、あとで曲を聞いてもらうとわかるのだが、この「The Lie」も最初からいきなり有名なスタンダード曲である「酒とバラの日々」と全く同じ入り方になっている。アウフタクトだし、音程も同じなのでキーも同じにしてやった。ざまーみろ。

思いついたメロディをつなぎあわせて曲を作ろうとすると、こんな場合には酒バラに引きずられてどうしても似たような曲になったり、それを避けようとして変なことになったりするのだが、こちらには歌詞というよりどころがあるので、酒バラに引きずられることがないのだ。

こうやって曲を作っていると、夏目漱石の「夢十夜」のなかのある一編を思い出す。第九夜じゃなかったかな? あ、六夜だったか。これもたしかこのBLOGの何処かに書いたんだけど。夢のなかにある仏師(仏像を彫る人)が出てきて言うには、「私は彫っているのではないのです。私はただ単に木に埋まっている仏様を掘り出しているだけなのです。」という超いい加減な要約をしてから本物を確認すると、まぁそんなに大きく間違ってもいないかってことで。

つまり、言葉にはもともとリズムとメロディが埋まっていて、私はそれを掘り出しただけ、っていうことなんじゃないかな? とか思ったり、思っただけにしとけばいいものをこんなトコロで偉そうに公言しちゃっていいのかな?とかも思ったり。でもいいんだ、駄BLOGだし。

で、やはり、英語のフレーズで考えるというのが私の場合「キモ」なんだなぁ。それはつまり私にとって英語がまだまだ消化しきれていない異物なので、なんかその、消化しきれていない感を持て余しつついじくり回しているのが自分的にも面白いんだと思う。

例によって前置きが長いんだけど、ここらで「The Lie」を聞いていただこうか。でも例によって歌詞は歌い出しの部分とその後のちょっと付け足したくらいしかなくて、メロディもまだ尻切れトンボだ。そこんトコよろしくっ。

では、これを日本語でやるとどうなるか? 日本語だとさすがに慣れすぎているので、なんか甘えがあるというか、「どうにでもできるぞ」という気の緩みがあるのかあんまり面白いことにならないのだなぁ。歌謡曲的になるということはこれまでにも何度も経験しているのだ。

でも先週の大雨の時に思いついた「雨も悪くないよね」というフレーズを元に、こんなのを作ってみた。これも未完成なんだけど、ご賞味あれ。

 

| | コメント (2)

2013年6月22日 (土)

ボーカロイドがSchwaで悩む

すでに書いたように、この歳になるまでSchwaのことを知らなかったので、全く驚いてしまったわけだ。特に「英語ではアクセントのない母音はSchwaになる(傾向が強い)」というのは私ににとってまさに青天の霹靂(これで意味合ってる?)であった。

しかし、だ。そうすると、辞書に書かれた情報を元にした発音辞書を頼りに歌っている英語版ボーカロイドはどうなるのだ? 彼女(あ、男のボーカロイドもいるけど、私の持っているのは女声なので一応彼女ということで)は健気に辞書通りに歌っているので、「アクセントのない母音」なんて意識していないだろう。発音辞書は大幅にSchwa化するように書き換えられねばならないはずなのだ。

で、私もささやかの試みとして、英語で歌うボーカロイドの発音を矯正して見ることにした。「アクセントのない母音はSchwa化」する。ときにはSchwa化しないものもあるらしいが、私にはそんなことわからないので、一意的にこのルールを適用する。

で、そうやってすでにBLOGでは発表済みの「Understand Me」を発音の点から見なおしてみたのだが、さすがに簡単な単語しか使っていないだけあって、複数音節の単語は殆ど無い。20箇所くらい修正したら随分と感じも変わるんじゃないかと思ったが、実際に明らかに修正でいるのは一箇所だけで、それも最初の方だった。

「Understand Me. Just Accept Me.」のところで、Understandの第二音節はすでにSchwaになっているので、あとはAcceptしかない。アクセントは「e」のところにあるのだろうから、最初の「A」のところにボーカロイド記号として「{」がアサインされているところをSchwaの「@」に書き換える。それだけ。

その部分だけを聞いていただこうか。お手数ですが以前の発音と比べて聞いてみてほしい。

オリジナル。

  「Accept」を無理やりSchwa化したもの。
私の聞いたところ、違いはあまり感じられない。そもそも英語を聞くのは苦手なのだ(それを言っちゃぁ…)。

| | コメント (4)

WAVEファイルを処理して悩む

WAVEファイルをperlでわりと簡単に処理できることがわかったので、これは面白い、と。前からやってみたかったことがあって、アナログ的に回路で実現を試みたこともあったのだがうまく行かなかったのだ。それをデジタルでやってみよう。

それは楽器の信号を自乗すること。実際にアナログ回路で作ってみたこともあったのだがアナログ乗算器はゼロ点調整が難しくて、電源電圧や周囲温度が変わったりするとすぐにずれてしまう。バーブラウン製の高級な乗算器ならそんなに狂わないのだろうが、私の使おうとしていたのはPLLの位相検出器用の乗算器で、これはなかなかのじゃじゃ馬だったのだった。

で、楽器の音を自乗してどうしようというのか、というと、それによってスペクトル分布が変わって面白い音になるんじゃないか、さらには楽器をコントロールすることによる音の表情付けの機能・性能を拡大することができるんじゃないか、と考えたからなのだ。

楽器に限らないが、たいていの音は基本周波数とその倍音から成っている。そうでないものもあって、それはそれで重要なのだが、とりあえず楽器の音に限定して考えると基本周波数とその整数倍の周波数を持つ倍音から出来ている。それらを自乗、つまり掛け算するとどうなるか。

単一周波数のサイン波(純音)を考えると、一般に異なった周波数のふたつの純音を掛け算すると、その基本周波数成分は消えてしまってその和と差の周波数が新たに現れる。2つの周波数が全く同じであれば、純音であっても和ということで倍の周波数が現れる。さらにはその差として周波数ゼロ、つまり直流が出現する。
Sinsquared
だから、純音でない、複数の倍音系列を持った楽器の音を自乗すると、基本波は倍の周波数になって消えてしまうが、基本波と2倍音との差で新たに基本周波数が現れる。各倍音感の間で和と差の周波数が現れるので、元の楽器の音とは倍音の構成が変わってくるのだ。

さらに、楽器の種類によっても事情が異なるのだが、倍音といっても本当にちょうど整数倍になっているわけではなく、一般に倍音にはその周波数成分においてゆらぎがある。例えばギターの音をオシロスコープなどで観測すると、倍音成分が基本波と同期しないので、信号波形は一定の形にならず「流れる」感じになる。ときにはこのゆらぎが楽器としての音の豊かさを感じさせたりするのだが、このゆらぎが倍音の差成分としてどういう働きをするのか、というのも興味深いところだ。

前にも書いたが、不完全な形ではあったけれどもこの自乗器をギターとかベースにつないで試したことはあったのだ。当時はまだそれを録音してどうこうするということまでは全く考えていなかったので、なんの記録も残っていないのだが、なんとなく「面白い音」だと思ったことだけを覚えている。

とまぁ、例によって長い前振りの後で本題に入るわけだが、結論をさっさと書いてしまうと、どうも「楽音自乗器」は失敗のようだ。思った程に基本波成分が生成されず、バイオに上が強調された品のない音になってしまう。ま、品のない音に利用価値がないのかというとそうでもないとは思うのだが。とりあえず私の好きな音ではない。

思えばアナログ回路で作った時には、そのゼロ点調整のずれ具合がたまたまイイカンジになっていたのかもしれない。それならそれで、それをデジタルに実現することもできるのではあるのだけれども。

ギターの音を例にとって実験結果をお見せしよう。

Guitarcompared上が元の波形、下が自乗したもの。自乗するとマイナス成分がなくなってしまう。後半で乱れているのは計算がオーバーフローしたから。オーバーフローしないようにもできるんだけれども、そこまで微調整している暇がなかった。

実際に音を聞いていただくが、この「乱れ」の部分は下手をするとスピーカーを壊したり、耳を痛めたりということがないとも言えないのでご注意いただきたい。

  これが元の音。使ったギターはナイロン弦のエレガット。

  これが自乗したもの。音が乱れるのでご注意。前半でやめておくのが吉。

では実際の波形を細かく見るとどんなふうかというと、こんなになっている。

Guitardetailed

更に周波数スペクトルを見てみよう。倍音がわかりやすいように周波数軸を等間隔にしてみたらわかりにくかったので対数軸にしている。まずはオリジナル。

Guitarsamplespec

350Hzあたりに基本波のピークが見える。ところがこれを自乗すると、次に示すように基本波がなくなってしまっている。

Guitarsquared

倍音の構成が変わるのは狙い通りではあるのだが、基本波を残したいよなぁ。まぁ考えつくことはなんでもできるので、いろいろ試してみようとは思っている。

その「いろいろ」のひとつが、「時間差で掛け算をする」ということだ。楽音信号を10m秒とか100m秒ほど遅らせたものと元の信号を掛け算する。でもこれも結局は基本波がなくなてしまって、ショボイ音にしかならなかった。一応サンプルだけおいておこうか。

  100mSの遅延の後に掛け算。

この信号は掛け算するときに細工をしたので「乱れ」はない。でも音色としてはそんなに変わらない感じ。残念!

他にもベースを使った実験もやってみたが、結果は似たようなものだったので割愛。フルートとか弓で弾く楽器も試してみたいが、もうちょっとなにかつかんでからにしよう。

| | コメント (0)

伊東ゆかりで悩む

先週の新聞広告でこんなのを見つけて、「なんだか伊東ゆかりに似ているなぁ」と思ったら本人だった。いよっ、若いねっ。

Itoyukari

伊東ゆかりといえば数々のヒット曲があるわけだが、ええと、「小指の想い出」とか? しかし私の記憶におあるのは主にTV番組「Sound In "S"」だ。最後の「S」はスポンサーのSeikoの頭文字なんだが、スポンサー名をそのまま出さないところが昭和だねぇ。

この番組は音楽監督を前田憲男というジャズピアニスト・アレンジャー・バンドマスターがやっていて、センスのいい音楽を流していた、伊東ゆかりはその番組で長い間司会をやっていたのではなかったか。しばたはつみもこの番組で知ったのだったが、2010年に亡くなったらしい。

この番組のイメージが強いので、私の中では伊東ゆかりと言えば「Blue Moon」なのだ。この番組で何度か聞いたが、このひとの歌うブルー・ムーンをすっかり頭のなかに焼き付けられた、という感じ。

この動画もスタッフロールを見るとどうやら「Sound in "S"」らしい。前田憲男の名前も見える。いったいいつの撮影だろうか?

そういうわけなので、新聞広告とはいえ、お元気そうで何より、というところ。

| | コメント (6)

2013年6月16日 (日)

「地王」で悩む

このBLOGをよく見ていただいている方はお気づきかと思いますが、私はしばしばタイプミスをしていて、おそらく一番多いのが「という」と打とうとして「ちおう」になってしまうというもの。そのまま[変換]してしまうと「地王」になってしまったりして文章が意味不明になってしまう。

「という」を打ち込むために「T・O・I・U」とキーを打つわけだが、この「O」と「I」が入れ替わってしまうのだ。そこまでわかっていても間違うのは、右手の中指を骨折したことがあったために、まっすぐに伸びないということがあり、うまくコントロールできていないのかもしれない。

これだけ気をつけていても間違うのだから、これはもう仕方がない。機械に頼ろう。以前にもやっていたことがあるのだが、「ちおう」と打ち込んだ時にそれを「という」に変換するように辞書登録することにする。これをここで宣言することによって少なくともBLOGを書くのに使っている2台のPCでは「地王」はまず出なくなる。「ちおう」も変換のタイミングによっては残るかもしれないのだが大幅に減るはずである。

| | コメント (2)

デジカメの長時間露光で悩む

まずこの写真を見ていただきたい。

Cup1
次の写真は、おなじカップを同じ場所で撮影したものだが、撮影方法が違う。えらそうに言っているけれども私が撮ったのではない。
Cup2

どっちの写真が綺麗? 場合によっては多少変わるかもしれないけれども、たいていの場合は下のほうがきれいだと思うんじゃないだろうか。
具体的な撮影方法については以下の記事を見てほしい。ケータイ・ウォッチの記事を読んだだけではさっぱりわからなかったのだが、その元ネタ記事を読んでやっと大要がつかめた。う~ん、理解力低下してるのか? 元からか?


要は部屋を暗くしてシャッターの露光時間を長くし、露光中に光源の位置を変えることによって広い面光源を仮想的に実現する、ということなんだが意味わかる?

こりゃ面白い、と思って実験してみようと思ったのだが、この長時間露光というかスローシャッターがなかなか実現できないのだなぁ。

昔ながらの銀塩カメラなら、必ず物理的に絞り機構を持っているから、ちょっと気の利いたものなら安いカメラでも長時間露光はできたのだが、デジカメだとそうはいかなくて、最近流行のデジタル一眼あたりでないと長時間露光はできないみたいだ。

カメラの「絞り」には二つの機能があって、ひとつはもちろん入社する光の量を少なくすること、もうひとつはレンズの中心部分のおいしい(精度のよい)ところだけを使って写真の精度を上げること。

で、この後のほうの機能はいらないので、デジカメでCCDあるいはCMOSセンサの感度を低下させるだけでいいんじゃないのかと思うのだが、そう簡単ではないようで、安いコンデジとかあわよくばスマホでも可能なんじゃないかと思っていた長時間露光がかなり高いハードルになっているのであった。

だから、スマホで長時間露光のできるアプリがあったら教えてほしいな、と。

| | コメント (0)

2013年6月15日 (土)

Z変換で悩む

結論から言うと、Z変換はやはりわからなかった。ブロック図レベルではわかるのだが、今回やりたいと思っているバタワース・フィルタなんかをデジタルフィルタとして実装しようとするとさっぱりわからない。チェビシェフなんて全然わからない。

考えてみると、学生時代にもZ変換と回路解析とは全然別の授業だったので、アナログ回路をZ変換してみようという話はなかったんじゃなかったか? それとも覚えていないだけか? ラプラス変換なんかでは、すっかり得心して、変数ζをいじりながらいろいろ演習問題をといた覚えがあるのだが、Z変換はさっぱりだ。

とか言っているうちに少しだけ思い出したことがあるので、2次系の帰還ループを持ったシステムをs式で表してそれをZ化する、なんてこともそのうちやってみようとは思っている。

Timeconstant
で、まぁこんな図や、こんな数式なんかを書きなぐったりした結果、どうやらできそうな目処が付いたので、WAVファイルを処理して見ることにする。

Equation こんな数式を書いたりして、まるで「ガリレオ」を意識しているみたいだが、はい、意識してます。むこうは理学部なのでいきなり数式がでてくるんだろうが、こちとら工学部なものでまず図を書かないとイメージが湧かない。ガリレオ先生が書きなぐるのは流体力学の偏微分方程式みたいだからこちらも対抗して差分方程式を書いてやろうと思ったのだが、方程式を書く前に図を見て答えが出てしまった。

実際にデータを処理するにあたっては、先日はPerlでえらく時間がかかったのでこれをどうしようか、という懸念事項があったのだが、Cを使わなくてもPerlで出来そうだということがわかった。

先日はWAVファイル全体をメモリ上に読み込んで、あわよくばFFTまでやってしまおうかというスケベ心を出していたので、そのメモリを確保するのに時間がかかっていたらしい。11MバイトのWAVファイルを格納するのに1Gバイトのメモリと30分という時間を消費していた。これは連想配列だからしかたがないのかもしれないのだが、これはちょっとメモリを食い過ぎ。以前に試算した時には連想配列であっても要素あたりのメモリのオーバヘッドは18バイトだという結果だったんだけど。

まぁ、それはともかくPerlでスクリプトを書いてWAVファイルを処理できるようにした。指定した周波数より下の方は通すが、高い部分をカットしようという(デジタル)ローパスフィルタだ。簡単な一次のパッシブフィルタだ。

まずはホワイトノイズで実験。
Whitenoisebefore_2

ホワイトノイズは周波数分布が均一な信号なので、そのスペクトルを見るとフラットになるはずなのだが、この図ではえらく波打っている。これは縦軸の取り方が悪いので、よく見ると大きなうねりであってもプラマイ0.2dBの範囲に収まっている。0.2dBというのは5%くらいなのでまあまあフラットかな。

で、このホワイトノイズを3KHzカットオフのローパスフィルタに通した結果がこちら。

Whitenoiseafter

漸近線を引いてみると、カットオフが2.3KHzくらいに見えるが、これはなんだかよくわからない。ただ、3KHzのところでちょうど-3dBになっているからまあよしとするか。漸近線でももっと精度が出るかと思ったが。

ホワイトノイズの音を出すこともできるが、聞いて愉快な音でもないので省略。次にボーカロイドの声を処理してみよう。

すると、こんなのだったのが、
R8barspec

こうなる。それぞれ、音も比べていただきたい。
R8barspeclp3k

つまり、5KHzあたりのピークを取ると、たしかに耳障りな音はなくなるが、音も変わってしまって「あ~」よりも「え~」に近くなってしまう。だから、耳障りであっても元のほうがいい…のかなぁ?「曖昧な発音」だから、どっちでもいいようなもんだが、実際の歌の中でこの音だけフィルタを掛けるというのはちょっとめんどいのでそこまではやらない。

だから結論としては耳障りな「さー」的なノイズみたいなのが聞こえるけれども、それを取ってしまうと別の音になってしまうから、しかたがない、ってことかな? でもなんか不自然なんだけど。

でもこうやって、WAVEファイルをPCBで処理できるというのは嬉しい驚きだ。実ま昔にもトライしたことがあったのだが、今ほどHDD容量が潤沢になくてこんなにいろいろ遊べなかったのだ。早速やってみたいことがいろいろ出てきたので、また出来たらBLOGに報告しよう。

| | コメント (11)

オバチャーンで悩む

大阪で、熟年女性47名を集めた「オバチャーン」という「アイドルグループ」が結成され、活動を開始したらしい。「アメチャンを配りまくっている」という話もある。


「ブレイク寸前!」ということなのだが、頼むから寸前でやめといてくれ。

ところでこの曲のフルートはジェレミー・スタイグのをパクってないか?

| | コメント (2)

Schwaで悩む

吃驚仰天(クリビツテンギョー)である。これが本当なら目からウロコ、耳から耳栓、鼻から鼻カン、股間から…いやそれはちがうか。

でもどうやら本当らしいのだなぁ。

ことの始まりは、ボーカロイドのマニュアルに「シュワ」という言葉を発見したことだった。カッコ内に「あいまいな母音」と書いてあったのだったかな。で、その発音がどうも気に入らなくて、という話もすでに書いた。

で、やはりどうも気になるのでいろいろ調べてみた。すると、シュワというのはSchwaというドイツ語起源のことばで、要するに「e」を180度回転させた発音記号で表される英語発音のことであるということがわかった。ここまでは「ああ、あれのことか」で済む話だった。

ところが、英語に詳しい人たちの話として「英語の発音では、アクセントのつかない母音はすべてシュワ化する」という説(すべてではないという説もある)があちこちで書かれているのだ。つまり辞書に書かれている発音記号は実際にはそのとおりには発音されていない、と。

具体的には、以下のような例が挙げられている。

例えばbefore を私たち日本人はビフォアと発音してしまいがちだが、ア
クセントが後ろにあるため、第1音節は、あいまい母音のシュワとなり、バフ
ォアとなる。また、responsibility もリスポンスィビリティーと発音しがちだが、
実際にはアクセントのない母音はすべてあいまい母音になってしまう。従
って、アクセントのないpo, si, li の各母音はあいまい母音化し、レスペン
サベラティに近い発音になる。

これには驚いてしまった。つまり、私はそんな原則を知らないものだから、今まで(下手糞と自覚しながら)話していた英語というのは、外国人(非ネイティブ)丸出しの英語だったのだ。まぁ、英語圏へスパイとしてもぐりこむわけじゃない(本当はあこがれているんだが)のでそれでもいいんだけど。

話すほうはまだいい。問題は聞くほうだ。英語のリスニングが弱いのは自分でも重々承知していて、それは「ごめん、もっかい言ってくれる?」「ほんとにごめん、ゆっくり言ってくれる?」「まことにあいすまんが、もちょっとはっきり言ってくれる?」という小技で切り抜けてきたわけだが、これは相手が教科書どおり辞書どおりの発音をしてくれるものと期待していたからであって、「アクセントのない母音はすべてあいまいになる」ってことはつまり、主に子音だけで言葉を判断しないといけないってことじゃないか。

ということはつまり、英語を聞き取るということは聞き覚えたパターンと照合して認識しないといけないということで、私がこれまでやってきた「さぁ何でも来い、母音と子音の組み合わせを聞き取って単語に復元し、意味を汲み取ってやるぞ」というのは大間違いだったということになる。うん、実際そうだったのかも。

実際に職場で何人かにこの話をしてみると、私のように仕事上しかたなく英語を話しているが、海外に住んだことのない人は「シュワ?手話?なにそれ?」という反応だった。海外に住んでいたことのある人は「ああ、言われてみればそうだなぁ」という人と「うんそうだよ、あまり知られていないけどね」という2種類の反応に分かれた。



いや~、これは本当にビックリだよ。これは例えてみれば音楽で「アクセントのない音は全部あいまいな音程にしておけばいいんです」と言ってるようなものだものなぁ。

| | コメント (0)

2013年6月 9日 (日)

オブリビオンで悩む

久々に映画を見てきた。「OBLIVION」だ。トム・クルーズがわざわざプライベートジェットで日本まで来て「見てね」とか言うもんだから見てきてやったのだ。

実は映画を見終えて帰宅するまで、「OBLIVION」の意味を知らなかった。「忘却」とか「恩赦」とかそんな意味があるらしい。これって常識でしたか? 事前に知っていたら、「ああ、このことか」と引っ掛けられ(だまされて)ていたかもしれない。

Bubbleship 予告編はさんざん見せられたので、あの、名前の分からない乗り物(映画の中ではなんだか呼ばれていたのだが忘れた:BubbleShipだった)が発進する様子(高い位置からダイブする)がかっこいいなと思っていた。かっこいいんだが、動力がなんだかガスコンロみたいなのがう~ん。エネルギー源が全部原子力(燃料?)電池らしいのはまあいいとして、ものすごい機能を持っている割には肝心の時に役に立たないのはこういう映画のお約束。

全編でCGバリバリだし、時空を超えたSF的ストーリーなので突っ込むのは無粋というものだが、やはりこういうのは呆然と流れに身を任せて見るしかないのか。それにしては凄惨なシーンになるはずのものが以外にマイルドな仕上がりになっていたりするのはR16指定を逃れるためだろうか?

意外っちゃ意外などんでん返しが用意されているのだが、長めの予告編ではかなちネタバレしているのが気になるなぁ。それに基本的なアイディアとかが既出のものが多いのでなんとなく既視感がある。

でもまぁ、今時(イマドキ)の映画っていう感じで、ハラハラ・ドキドキでトム・クルーズくんも頑張っておりましたし、面白くなくはないし、つまらなくもないと思う。でも多くを期待しちゃダメ。

| | コメント (4)

害虫駆除用銃で悩む

Bug-A-Saltという銃が面白い。アサルト・ライフルという狙撃用の銃があるので、それをもじってつけた名前だろうと思うが、面白いじゃないか。

Bugasalt

実は名前の通り、「塩」を使って虫を殺すものらしい。塩粒を一つずつ飛ばすのかと思ったが、動画を見るとそうじゃなくて塩をひとつまみほど虫に向けてたたきつけるらしい。多分、ポンプで溜め込んだ空気圧で打ち出すのだろう。卓上で使うような食塩をいっぱいに入れると50発撃てるという。

でも日本の住宅で使うとなると、まき散らした塩が潮解してベトついたりするからちょっと無理かな。屋外で使うならいいんだろうけど、屋外では虫のほうが行動範囲広くて有利になるだろう。

これを見て思い出したのが、ギャビン・ライアルの小説でタイトルを忘れてしまったが新型の戦車を陸送する話だったかなぁ。その戦車は砲弾を打ち出す火薬(炸薬?炸薬は砲弾の中に入っている方だと思うので違うと思う)に液体を使うというもので、これによって近くの的に射撃するときには火薬の量を減らしたりできるとか、そんな話だった。敵との距離を精密に測定できて、しかも気温、気圧、風向などから火薬の量をコンピュータで精密に計算できるから可能になったのだとか。

そんなこんなを思い出したりしているうちに妄想モードに入り、銃弾に使われている薬莢ってもったいないよなぁ、ということから、銃弾を打ち出すのに液体とかあるいはガスを爆発させて撃ち出すことはできないんだろうか?とか思ったり。

使い捨てライターに使っているようなガスボンベからガスを供給してうまく空気と混合し、装填した鉛弾のは以後の爆発室に充填して着火する。着火にはもちろんライターに使われているようなピエゾな着火装置を使う。

うまい混合気を作ってしかもそれを密閉した爆発室へ導くというところが難しいのだろうけれども、きっとそのうちに何かブレークスルーがあって実現するんじゃないかな? 粉末の火薬ほどの威力は期待できないような気がするけれども、そういう非殺傷な武器というのが今後は流行るかもよ。



| | コメント (6)

ボーカロイドを分析して悩む

悩むくらいだったら分析なんてしなければいいのに・・・、てなことを言うアナタ、オタク体質を理解していませんね~。まぁそんなもの理解したってなんの役にもたちませんけれどもね。でも、分析したから悩むのか、はたまた悩むために分析するのか、とか、まぁそんなことはどうでもいいのだ。

とっかかりは、作ってみた「Understand Me」の最初の部分で「ア」系の発音がなんだか不自然だなぁと感じたことだった。特にこの「アンダースタン・ミー」の「ダー」のところの発音がなんだかハスキーすぎるというか、なんだか不自然だなぁ、ここんところがもうちょっとなんとかなれば本当に人間が歌っているように聞こえなくもないのになぁ、と。

Vocaloid3 Editor(以下V3Eと略)では、「Understand」という単語を辞書を引いて「V n d @r s t { n d」というV3Eの内部発音記号に展開する。問題はこの「@r」の部分だ。 マニュアルを見ると、「@r」には特に記述がなくてその代わりに「@」のところには「シュワ(あいまいな母音)」と書いてある(図はマニュアルからの一部引用)。

V3eman4 「シュワ」って何? 日本語ですかそれ? ボーカロイドが手話? シュワルツネガーと何か関係がある? 他の母音記号にはなんにもコメントがなくて「@」にだけ「シュワ」って? などなど突っ込みどころ多数なのだが、結局のところなんだかサッパリ分からない(ガリレオふう)。

で、その周波数スペクトルを取ってみたのが次の図だ。なんだか高域までチャラチャラといろいろ入っているが、-60dB以下は多分聞こえないだろうと思うので無視して、どうも赤く囲んだ部分がうるさく耳に付いているんではないか、という気がする。




R8barspec

実際にこのスペクトル解析を行った音をmp3にしてあるので聞いていただこうか。



だから、この音声ファイルから3khz以上をバッサリを切り落とせるようなチェビシェフ・フィルタみたいなのがWindowsのアプリケーションとしてないものかと探してみたのだが、意外とないもので、Mathmaticaとかなんだかそういう数学ライブラリには入っていたりするんだろうか? SourceForgeを探してみたが、やはりそういうプロジェクトもないようだし。
Windows上でWaveファイルを処理できるデジタルフィルタって、意外と便利なんじゃないかと思うんだが、誰か作ってくれないかな。

しかたがないので、昔学校で習ったZ変換とかで何とかやってみようと思ったのだが、WEBにあるZ変換のサイトを見てもこれまたさっぱりわからない。これは原義に立ち返ってちまちまとプログラムを書くしかないんだろうか? perlで書いてみたらファイルの入出力だけで30分かかったりして非常に遅い。メモリの利用効率が悪いので、こういう多量データの計算には向いてないんだろうなぁ。Cで書くか?それもめんどくさいなぁ。

仮計算をしてみると、そもそも16bitPCMオーディオというのが計算には全然向いていないっていうか、デジタルフィルタ的計算をやろうとすると計算精度が全然足りない。確かに16bit44.1kサンプル/秒というのはオーディを記録するにはいいんだろうけど計算するにはその倍以上の精度が必要なようだ。これは結構めんどくさいぞ。

というわけなので、Z変換をはじめとするデジタルフィルタなんかを再履修中。

翌日追記:
恥ずかしながら今まで知らなかったのだが、シュワっていうのはこれのことだったらしい。
Schuwa
この発音記号のことをシュワ(Schwa)っていうのかっ!? 何語だよっ?!

この発音記号はよく知っているが、「あいまいなア~」とは知らなかった。

これはさりげなく発音できると英語がうまく聞こえるらしいぞ。

(つづく)

| | コメント (1)

2013年6月 8日 (土)

イエデンで悩む

イエデンというのはつまり家の電話で、つまり携帯ではなくて固定電話ということなのだが、このところめっきり影が薄くなっている。

それも当たり前だ、だって機能がほんとうに少ないんだもの。着信/発信番号履歴も100件くらい覚えてくれれば使い勝手も良くなるだろうし、番号簿だって充実させれば・・・、というところで気がつくのだが、携帯電話の電話帳が充実しているのは常に携帯していて暇な時にいらう(関西弁:いじくる)ことができるからなのではないか。

イエデンをいじくり回して使いやすくするなんてことは普通考えないものなぁ。そんな時間もないし、電話の置かれているところはたいてい部屋の隅だったりして作業性も良くない。そうか、イエデンはそんな日陰ものだったか。

だいたいイエデンにはロクでもない電話しかかかってこないし、こちらからもかけないので、基本料金がもったいなくてウチではauひかり電話で確か付きに500円しか払っていないはずだ。基本料金がこんなに安くなったので、もったいなくなって発信番号通知(400円)も断ってしまった。

そういえば、「ケータイには登録してあるが、イエデンには登録していない番号」に電話かけるときどうします? ひところはダイヤラというものがあって、要するにピポパ音(正しくはDTMFという:Dual Tone Multi Frequncyとかなんとか)をイエデンとか公衆電話の送話器に流しこんでやることによってダイヤルするというやつ。

ダイヤラのアプリをスマホに仕込んでおいたり、ガラケーでもそんなアプリがあったりしても不思議はないのだが、以外に見かけないなぁ。便利だと思うけどなぁ。

などと思っていたら面白いものを見つけた。

Vshps200s パナソニックの「ホームスマートフォン」というもので、一見普通のイエデンのように見えるが、なんと充電台に見えるのが本体であって、送受話器に見えるのはそのまま通話用子機、タブレットが操作用子機なのだ。

しかもその操作用子機が実質的にアンドロイド・タブレットであるところが面白い。つまり、この操作用子機にはGooglePlayからアプリをダウンロード・インストールできるのだ。

残念なのは、この本体と子機間の通信がWifiではなく、いわゆるコードレスフォン用の電波であることだ。ここがWIfiならば、音持ちのスマホに適当なアプリをインストールすることによって実質的にこの操作用子機を置き換えることだってできるはずではないか。

そうすると、スマホに登録されている電話番号をイエデンでフルに活用することができる。しかも、スマホはおそらく家庭の各個人が持っているだろうから、お互いのプライバシーというか、電話帳の独立性は保つことができる。

しかし、イエデンの本体にWifiを組み込むというのはやはりハードルが高かったんだろうなぁ。すでにWifiのAP(親機)は広く普及しているし、そこへ新しいAPを設定させるのは何かと面倒だ。イエデン本体をWifiの子機に設定する構成も考えられるが、そういうことをするとサポートコストが大変になるからだろう。

だから、こういうことはインタネットプロバイダがやればいいのだ。NTTとかauとかソフトバンクだ。auがそういう電話機を出してくれればいろいろと便利なのだが、auはCDMA2000からLTEへの乗り換えに必死で、auひかりもすっかり日陰者あつかい。釣った魚に餌はやらんという状態だ。

もうそろそろ10年ほど前になるが、YahooBBが駅前でADSLモデムを無料で配っていた頃、仕事上の調査ということでYahooのADSL-IP電話機を調べたことがあった。シャープ製の電話機(イエデン)で、驚いたことに着荷してすぐに電話線と電源をつないだだけで完璧に動作した。すべての設定が完了しており、時計までピッタリ当ていたのだ。もちろんその状況で電話は通じるし、LANケーブルを繋げばPCもインターネットにつながった。さらにはWifiでノートPC(これには設定が必要だったが)にもつながったのだった。「垂直統合強ぇ~」と思ったものだったよ。

| | コメント (0)

ボーカロイドを使って悩む

ボーカロイドを実際に使ってわかったことなどをまとめてみようかと。

ボーカロイドは言わば「歌うロボット」であるということは皆様ご存知のことと思いますが、その詳細についてはあまり知られていないのではないかと思います。実は私も実際に購入して使ってみた最近までよく知りませんでした。2年半ほど前に雑誌の付録で体験版を入手して使ってみたのですが、それでも大局的な把握ができていなかったのです。

まず、ボーカロイドのビジネスモデルと言いますか、商品流通がどうなっているかということを書いてみました。

Vocaloidbusiness


あ、右側に顧客というか、一般ユーザがいるんですが、それは書き忘れたなぁ。

ボーカロイドの技術は産業総合技術研究所が開発した技術を元にヤマハが確立させたものであるようです。ヤマハは実際に歌声を歌わせるエンジン(または声優の声をデータ化するものをも含んでいるのかもしれない)と、その歌声データを編集するVocaloid Editor (以下VEと略)というものをVocaloidメーカーに供給しています。

Vocaloidメーカーは、ヤマハから供給された技術を元に声優を雇って独自の歌声データベースを作成し、VEとパッケージングしたり、あるいは個別に販売します。私が試用した体験版は初音ミクのものだったので、それを使っただけではこういう業界認識は持てなかったのです。

ボーカロイドとしては初音ミクが超有名ですが。これはその発売元であるクリプトンが仮想アイドルとしてのキャラクターを確立させたことがその成功の原因だと思います。実際にはそういう仮想人格を与えられていない名前だけのボーカロイド製品も数多くあります。

Vocaloid3singers

現在、VEはVersion3が最新ですが、初音ミクはVE2の時代に作成されました。初音ミクをVE3上で動作させることも可能らしいですが、私にはよくわかりません。私はVE3上で動作するMegpoidという別の会社(インターネット)が販売するボーカロイドを使っています。

ボーカロイドの商品構成を図示したと書きましたが、この中に書ききれなかったものがあります。それはCUBASEというDTM/DAWソフト(詳しくは知らない)のプラグインとして実装された初音ミクのことです。シーケンサに接続された特殊なMIDI音源として動作するというのは理屈としてある意味正しいような気もしますが、実際にボーカロイドを触った感じでは、自由度という点において図示したようなビジネスモデルのほうがいいんじゃないかと思います。

Vocaloidconfig

こちらの図では、ボーカロイドが動作するときの構成を書いてみました。ボーカロイドは基本的にVEの上で動く歌声データベース(DB)です。そこへメロディと歌詞を手入力またはMIDIに乗せてインポートし、またカラオケをWAVで渡してやることによって楽曲が完成するわけです。

VE上では複数の歌声DBを操作できるので、例えば初音ミクとMegpoidをデュエットさせるとかいうことも可能になってくるわけです。

で、実際にVE3を使ってみると、妙に使いにくいというか、これなら体験版のVE2のほうが良かったんじゃないかな、とか思ったりもしたのですが、それはヤマハの戦略のようで、VE自体の機能は落として、その機能をプラグインで補おうということらしい。つまりスマホみたいに、本来の機能は最低限にして、アプリで自由度を与えるようなことを考えているのでしょう。

プラグインには有料無料のものがあるのですが、大半は無料でダウンロード出来るようになっていて、例えば転調移調、ゆらぎを与えるなどの機能がこちらに入っている。でもこれはわかりにくいんだなぁ。

60本以上のプラグインを列挙してよく使うものを推奨しょうかとも思いましたが、すべてを使ったわけでもないのにそんなことはできない。今のところ試しに使ってみたりしているのが以下のプラグイン。
#評価Pluin名概要
1 ConnectNotes.lua すべての音をテヌートにする
2 GenerateUpper3rdHarmony.lua 3度上のハモリを生成
3 Humanizer.lua 人間っぽくする
4 LyricCatch.lua ノートに入力された歌詞を取得する
5 LyricOptional_113.lua 歌詞を任意の値に変換する.
6 LyricShiftBack_110_v1.lua ソングポジション以降の歌詞を前ノートにずらす
7 LyricShift_110.lua ソングポジション以降の歌詞を次ノートにずらす
8 NoteJoin_113.lua ノートを結合する.
9 NoteSplit_113.lua ノートを分割する.
10 OpeningChange.lua 各ノートのOpeningを母音と「ん」毎に変更する
11 Transposition.lua すべての音の音程を変える
12 Whisper001.lua ノートをささやき声に変換
評価:◎必須、○使えそう、△面白そうだが、今ひとつよくわからない

ただし、私はいわゆる「ボカロP(プロデューサ)」ではないので、ボーカロイドに歌わせたものを「作品」として仕上げることを目標にはしておらず、「とりあえず(仮歌として)歌ってくれればいいや」というスタンスからの評価であることをご承知おきください。

| | コメント (0)

2013年6月 3日 (月)

FaceBookの使い方で悩む

FaceBookで知らない人からメッセージが来た。内容を見て驚いた。

メッセージをくれた人は、私の知人Fさんの(FaceBook内での)友人であるという。その知人Fさんが週末に亡くなったので、Fさんの(FaceBook内での)すべての知人に「悲しいお知らせ」として通知されてきたわけだ。
葬儀はすでに親族のみで行われ、6月6日にFBでの知り合いだけでお別れ会をします。という内容のメッセージであった。
Fさんと私は仕事関係の知り合いで、じつはFaceBook内ではそういう知り合いが多い。mixiではありえない知り合い関係なので、FaceBookならではの情報ではあったわけだ。
mixiは趣味関係、Facebookではそれ以外、というふうな使い分けをしてきたのだが、もうちょっとまじめに考えて使ったほうがいいのかもしれない。

| | コメント (7)

2013年6月 1日 (土)

温故知新で悩む

知る人ぞ知る、ってことは知らない人は知らない。

ひところ流行ったはずなんだが、もう誰も覚えていないかもしれない。私は倉橋由美子が翻訳したというところに食いついてしまったのだったが、訳すのは別にこの人でなくてもよかったはずだ。

Sbsh0597
日本語版では倉橋由美子の解説というかあとがきがついていて、割と突き放すような物言いだったと思う。単純だが含蓄があるといえばある(ないといえばない)お話なんだが、当時は「かもめのジョナサン」的な扱われ方をしていたのではなかったか。か? 今読むとそんなに面白い話でもないような気もする。

日本では1977年に発行されて、私が買ったのは1981年であったらしい。そんな「ぼくを探しに」というオトナ向け絵本の原書をブックオフで発見したので捕獲した。150円だった。

| | コメント (2)

PC版Googleで悩む

おー、マジか?!

Googlevoice
しかし、うまくいかなかった。音声レベルが足りないとか言ってる。そんなはずはないんだけどなぁ。
Miclevel
なくても別に困らないけど、使えないのは悔しいなぁ。

| | コメント (0)

« 2013年5月 | トップページ | 2013年7月 »