Ответа на вторую часть вопроса я не знаю, а относительно первой, тут дело в том, что у нас уши это не просто дублирующие каналы информации, а органы обеспечивающие стерео восприятие звука. Это обеспечивает возможность приблизительно определять направление и расстояние до источника звука.
Согласно вики:
1 Разница в средней амплитуде (исторически первый обнаруженный принцип): для частот выше 1 кГц, то есть таких, что длина звуковой волны меньше, чем размер головы слушающего, звук, достигающий ближнего уха, имеет бо́льшую интенсивность.
2 Разница в фазе: ветвистые нейроны способны различать фазовый сдвиг до 10-15 градусов между приходом звуковых волн в правое и левое ухо для частот в примерном диапазоне от 1 до 4 кГц (что соответствует точности в определении времени прихода в 10 мкс).
3 Разница в спектре: складки ушной раковины, голова и даже плечи вносят в воспринимаемый звук небольшие частотные искажения, по-разному поглощая различные гармоники, что интерпретируется мозгом как дополнительная информация о горизонтальной и вертикальной локализации звука. wikipedia.org
Поэтому если музыка записана не просто отдельные инструменты отдельно на правый или левый канал, а именно стерео, то есть звуки записывались одновременно разнесенными на расстояние микрофонами, то запись несет информацию о пространственном расположении источников звука. И мозг при прослушивании считывает эту информацию. И если каналы поменять местами, то эта информация будет считываться по-другому. Возможно немного непонятно для мозга. Ведь звук не только просто идет к микрофонам, но и отражается от других объектов создавая сложную картинку объемности.
И ещё вдобавок к первым двум постам.
На сколько я знаю,если не ошибаюсь: Левое ухо у нас хорошо распознаёт высокие,и высокую середину,а правое низы и средние частоты. Лично у меня так.