1. 楽器の進化論進化論的に言えば、用のないものは退化して、用のあるものだけが進化していくことになります。

それが時代の流れです。その説に従えば、すべての楽器の音の波形分析を行い、その波形合成を行うことのできるシンセサイザーやサンプラーなどのデジタル音源による楽器が、従来からあるすべての生の楽器を駆逐してしまうこともあり得ます。理論的には。→楽器の生い立ちなど紹介

しかし、これから先、本当にそのような時代が訪れるのでしょうか?

実際、シンセサイザーが音楽のレコーディング現場に登場した1980年代には、レコーディングスタジオからあっという間に消え去ってしまった楽器がいくつかありました。

バスーン、チューバ、アコーディオンなどの比較的マイナーな楽器、そして、ロックやポップスでは最もポピュラ—なドラム,セット(スネア、シンバル、ハイハット、パスドラムなどのリズムを作るためのセット楽器のこと)などが、シンセの音に瞬く間に置き換わってしまいました。ソロ楽器として登場の機会の少なかった楽器ほど、シンセサイザーの影に隠れてしまったのです。

しかし、その現象も、実際は一時的なものに過ぎません。現在では、またそれらのマイナー楽器の重要性が見直され、パソコンで打ち込む非人間的なリズムよりも、生の楽器が作り出す人間的な音楽への見直しが始まっている。これは、一体なぜなのでしょうか。

人間という生物も自然の中の一つの要素です。地球という星の中で人間だけが単独で存在していけるわけではありません。

旧石器時代の人間だったら当たり前のように感じていた自然と人間の共存という人間の本質的な命題に、人間、が改めて気づき始めたというだけのことなのでしょう。

2. 科学の進歩(シンセサイザーやコンビュ—ターの登場など)、が、逆に、自然と人間との閧わりあいの意味を気づかせることになっただけなのかもしれません。

先ほど、デジタル楽器がどうやって正弦波の集合体である「音」を合成していくか、その方法を簡単に説明しました。しかし、そこで見落としてならないことが1つある。それは、自然界にある。

アナログ音源(つまり、鳥の声や波の音、そして、あらゆる生の楽器の音など)をデジタル音源に変換するためには、音の成分のある大事な部分を削らなくてはいけません。

現在のコンピューターは、人類の脳の容量ほどの無限の容量を持ち合わせておらず、従って、多くのデジタル楽器は、限界ある容量の中での音作りを強いられています。そのため、人間の耳では聞き取ることのできない範囲の周波数を意図的にカットせざるをえないのです。

倍音の話でもわかるように、人間の耳に聞こえないからと言って、それがまったく私たちに必要のない音ということにはならない。

人間の耳に聞こえる周波数の範囲(可聴範囲という)は、健常者であれば、20hzから2万hzまでの範囲である。

ピアノのまん中のドの音が大体260hzぐらいで、ピアノの鍵盤は、再低音が27hz程度、最高音が4200hz程度なので、十分この可聴範囲の中におさまっていますが、教会のパイプオルガンは、最低音が16hzで、最高音8400hzぐらいです。最高音はいいとしても、最低音が人間の可聴範囲を超えています。これは一体なぜなのでしょうか?

人間の耳に聞こえない音を出して、音楽になるのでしょうか?

これも、先ほどの自然と人間との関わりから考えると理解しやすいかもしれません。楽器にはそれぞれ違った目的があり、違った種類の音楽を発展させていく役割を持っています。

キリスト教の教会の建物の一部として作られるパイプオルガンが作り出す音楽は、単なる鑑賞用の音楽なのではなく、神への畏敬と賛美のために演奏されるもの。教会の建物すべてが神への賛美に他ならない。たとえ、人間の耳に聞こえない16hzの最低音であっても、建物を響かせることはできます。


つまり、鳴っているのである。空気が振動している以上、音はそこにある。音がある以上、音楽としての役割を十分に果たすことができるのです。


この記事を見た人は、下記にも注目しています!