Ich hab das mal zu den sonstigen Tools geschoben, denn letztlich läuft die Frage darauf hinaus, ob es ein Tool gibt, das das macht.
Signalschwarz hat das Tool ja schon benannt, aber wie auch schon gesagt, perfekt ist das bei weitem nicht. Vielleicht wäre man da schon weiter, wenn man die Resourcen, die man für die Mondlandung vergeudet hat, stattdessen diesem wichtigen Thema gewidmet hätte, wer weiß? Oder vielleicht doch eher dem Zerlegen von Cappucino in Milch und Kaffee?
edmund, Du stellst Dir das zu einfach vor. Ich weiß jetzt nicht, warum Du postulierst, das müsste ganz einfach sein, an der Mondlandung alleine kann's ja wohl nicht liegen. Es haben sich ja schon einige absolute Spezialisten auf dem Gebiet damit befasst und die Resultate sind noch nicht so besonders.
Nachdem in der meisten Musik alle Musiker in der gleichen Tonart spielen (hoffentlich!), überlappen sich auch viele der Grundtöne und vor allem der Obertöne. Dazu kommen noch breitbandige Signale wie Drums und Becken, die in alle Frequenbereiche reinspucken. Ein Algorithmus kann dann zwar noch sehen, dass bei soundsoviel Hertz eine Sinuswelle im Spektrum da ist, aber wieviel davon nun zum Piano oder der Gitarre gehört, ist eben nur sehr schwer zu ermitteln und wenn sich die Software da verschätzt, entstehen unschöne klangliche Effekte, wie Flanging, Phasing und Übersprechen zwischen den getrennten Spuren.
Das menschliche Ohr kann das zwar subjektiv empfunden recht gut auseinanderfieseln, aber ein Großteil dessen, was Du da zum Beispiel als Piano hörst, wird von Deinen grauen Zellen zu den wenigen Informationen, die Dein Ohr tatsächlich wahrnimmt und voneinander trennen kann, aus der Erfahrung ergänzt und Du meinst dann, glasklar ein Piano mit allen Nuancen rauszuhören.
Banjo
P.S. Hier hat sich mal eine Uni daran versucht, und das mit relativ schlichten MIDI-generierten Wave-Dateien, die von der Komplexität echter Musik weit entfernt sind:
http://www-users.york.ac.uk/~jes1/SiamantasPhD/Thesis_examples/index.html