Pc mit Cubase teils überfordert, wie verbessern?

  • Ersteller LilyLazer
  • Erstellt am
Da es nicht um Spieleleistung geht muss man wirklich nicht viel Geld ausgeben. Unterscheide gibt es bei der Qualität der analogen Ausgänge; je höher die AUflösung, umso schlechter wird bei den meisten Karten das Signal, es wird unschärfer. Matrox war immer bekannt dafür, dass sie auf beiden Ausgängern auch bei hohen Auflösungen ein sehr gutes BIld liefern. Sind aber auch etwas teurer.
http://www2.alternate.de/html/shop/...evel1=Grafik&Level2=Karten+AGP&Level3=Matrox&
Wenn Du einen TFT digital anschließt (also per DVI) ist es egal, da gibt es keine Qualitätsunterschiede.
89€ musst Du noch nicht mal ausgeben, die hier zum Beispiel wird auch ihren Zweck erfüllen.
 
@Ars Ultima

Matrox ist net schlecht, allerdings haben die sich mehr auf 2D spezialisiert, was für Recordingzwecke sicher reichen würde.


@Death Metal

Ich würde in diesem Fall eher so eine empfehlen. :great:

http://www.geizhals.at/deutschland/a48291.html

Die ist im P/L Vergleich besser, du bekommst auch 2 Monitore damit angesteuert und bist damit auch in ( falls du auch mal andere Sachen mit den PC vorhast wie 3D) der Flexibilität besser beraten. ;)

Sicher gibt es noch billigere Karten für 40-70 Eur....aber bei denen stimmt meist des P/L Verhältnis überhaupt net insbesondere was die Leistung angeht! Die 9550SE ist mir bekannt, hab mehrere Karten der Reihe selbst getestet aber einfach zu teuer für das was se kann...;)

Schau dich mal bei ATI oder NVIDEA Grafikkarten um, falls du dir eine neue zulegen willst, was zu empfehlen ist, sofern du z.Z. mit On Board Grafik arbeitest, da findest du auf jeden Fall etwas.

Auf Matrox Karten kann man z.B net wirklich gut zocken(sei denn du willst wirklich nur im 2D Bereich bleiben, da sind se gut) und der Link von deinen Beispiel....die is teurer als das was sie leisten kann (wie schon erwähnt, die 9800Pro kostet grad mal 13Eur,- mehr un is fast "doppelt" so schnell)...wäre hier rausgeschmissenens Geld sich ne andere zu holen.

Wobei man hier auch an dem Punkt wäre, liebr 10 Euro mehr bezahlt, als sich ne lahme Karte zu holen un wenn man au ma andere Sachen damit vorhat, macht se schlapp un geht in die Knie. ;)

gruß Corvus :rock:
 
ars ultima schrieb:
je höher die AUflösung, umso schlechter wird bei den meisten Karten das Signal, es wird unschärfer.

Also das mußt du mir mal erklären?

Ich löse doch net höher auf, damit mein Bild schlechter wird? Is doch quatsch! Höhere Auflösung heißt noch mehr Bildpunkte pro Fläche und somit wird es schärfer un net schlechter! :screwy:

gruß Corvus :rock:
 
Ich glaube, DeathMetal will die Grafikkarte für seinen AudioPC, der nicht teurer als 800€ sein sollen. Mit dem soll nicht gespielt werden. Auf 3D-Leistung kann er alo völlig verzichten.

Zur Unschärfe: Das Problem ist ein elektronisches; viele Pixel bedeuten eine hohe Frequenz des analogen Videosignals. Eine schlechtes RAMDAC (das ist quasi der digital/analog-Wandler) und schlechte Signalverarbeitung auf der Karte führen nun zu einem "Höhenverlust", die Grafikkarte schaffte es dann nicht mehr solche hohen Frequenzen sauber darzustellen. Ein theoretsiches Limit gibt es da sowieso durch die Freuqenz des RAMDAC, Grafikkarten haben daher ja auch immer einer maximal Auflösung angegeben. Allerdings schaffen es die wenigsten Karten (am ehesten eben noch Matrox) auch diese hohen Auflösung noch perfekt darzustellen. Das Bild besteht dann zwar aus vielen Pixeln, ist aber dennoch matschig.
 
ars ultima schrieb:
Das Bild besteht dann zwar aus vielen Pixeln, ist aber dennoch matschig.

Des ergibt IMO keinen Sinn. :screwy:


gruß Corvus :rock:
 
Das linke Bild hat eine Auflösung von 640x480.
Das rechte hat eine Auflösung von 800x600.
Welches ist schärfer?
 

Anhänge

  • strand.jpg
    strand.jpg
    55,9 KB · Aufrufe: 115
  • strand2.jpg
    strand2.jpg
    72,5 KB · Aufrufe: 91
Das Problem sind nicht die Wandler an sich, sondern die mangelhafte Analogtechnik, sprich HF - Filter. Die Flanken werden viel zu flach sowie die zu hohe Dämpfung der Kabel (Im Profibereich wird deshalb immer mit getrennten RGB & Sync gefahren mit 75Ohm? Koax), was zu einem matschigen Bildeindruck führt. Das Problem stellt sich nur noch bei den Röhren. Die digitalen Display`s, wenn auch analog angesteuert haben ja meist eine nominale Auflösung von 1280x1024@60Hz. Dies schafft jeder halbwegs moderen Onboardgrafikchip noch problemlos. Wenn natürlich für Röhren die Frequenz auf 85Hz und die Auflösung noch höher steigt, beginnen die Probleme. Diese sind aber auch bei den Consumerkarten zu beobachten. Ob dies im Einzelfall praxisrelevant ist sei mal dahingestellt....
 
Richtig, Bildfrequenz spielt natürlich auch eine Rolle, wenn die höher ist, steigt logischerweise ebenso die Videofreqeunz.
 
ars ultima schrieb:
Das linke Bild hat eine Auflösung von 640x480.
Das rechte hat eine Auflösung von 800x600.
Welches ist schärfer?

Das linke Bild is hier schärfer aber:

Es sieht so aus, als wäre das rechte Bild auch 640x480 Auflösung nur allgemein größer dargestellt oder aufgezoomt (So als wenn i z.B. im Windows Wallpaper Strecken einstelle, damit sich ein Bild über das gesamte Display betrachten läßt, aber es trotzdem die gleiche ursprüngliche Auflösung hat)

Ein Monitor mit ner Auflösung von 800x600 mit 85Hz ist schärfer als die Einstellung mit 640x480 mit auch 85Hz!

Schau dir z. B. games an, zock mal mit 800x600 (z.B. 85Hz) Auflösung, meinetwegen noch mit AA und stelle mal 1600x1200 (z.B. 85Hz) ein ohne AA, welches Bild is wohl besser?

I mein mal des höher Aufgelöste! :great: Nehmen wir mal den gleichen Monitor sogar mit ner sehr geringen Lochmaske ums zu verdeutlichen...

I kann es mir net vorstellen, das ne höhere Auflösung matschiger (bei gleicher Frequenz und Monitor, klar) sein soll, i IMHO quatsch.

Hab schon viel gesehen, aber des noch net...

Wenn das Bild bei dir dann matschig is, i putz manchmal meine Monitore...*g*...:D

Noch nen Vergleich:

Zock mal ne Weile (3-4h) am PC ein gutes Spiel in z.B. 1280x1024 bei 85Hz
schau dir danach mal nen handelüblichen TV an mit ner Auflösung von was au immer die einfachen haben (weiß net genau, gibt ja au bessere, aber z.B. 640x480 wenns hoch kommt)...Da ist des TV Bild auf einmal total schwammig un unscharf , weil sich deine Augen an die hohe Auflösung und Details am Monitor gewöhnt haben( sozusagen die wurden verwöhnt)...un jetz was schlechteres sehen....

Noch eins:

Videofilme: Schau dir mal VCD-Qualität an un SVCD-Qualität...da is wohl ein großer Unterschied zu sehen...Welches der Beiden Formate hat hier wohl ne höhere Auflösung?

Soviel dazu...;) Es gibt wie schon gesagt, viele GRünde für ein gutes Bild oder net, aber höhere Auflösung is nunmal schärfer!

Noch eins:

Stichwort: Digicam!

Mach mal nen Foto mit ner 2MegaPixel-Kamera un mit ner 5Mega-Pixel und lass dir dann mal ein Poster davon ausdrucken (z.B.1100x700)

Mit welcher Kamera is nu das Poster schärfer?


gruß Corvus :rock:
 
@corvus: Du hast recht, ein Bild mit höherer Pixelauflösung ist erstmal schärfer. Und all deine Beispiele sind ja auch richtig. Zumindest in der Theorie. Und auch in der Praxis, wenn hochwertige Komponenten verwendet werden.
Das Problem mit "höhere Auflösung = matschiges Bild" tritt auf bei billigen Grafikkarten, oder auch bei langen VGA-Kabeln. In dem Fall schafft es die Grafikkarte nicht mehr, ein sauberes Signal für die höhere Auflöung zu erzeugen, bzw. die Signalqualität geht "unterwegs" verloren.
In der Folge wird auf dem Monitor ein relativ unscharfes Bild angezeigt, weil das Videosignal an der Grenze zwischen zwei Pixeln nicht mehr genügend Flankensteilheit hat.
Ein Bild, das so einen Effekt veranschaulicht (da geht es zwar nicht um VGA, aber das Prinzip ist dasselbe):
tv2010.jpg

Zusätzlich können Probleme auftauchen, die die Synchronisation betreffen. Dann passiert es nämlich, dass ein Pixel nicht genau da auf dem Monitor dargestellt wird, wo es hingehört, sondern auf der Grenze zwischen zwei Pixeln. Oder die Zeilen sind leicht gegeneinander verschoben, weil das Signaltiming "wackelt".

Schau dir mal das hier an: http://www.tecchannel.de/technologie/komponenten/401858/index23.html oder einfach mal nach "VGA Signalqualität" googlen.

Und damit soll es erstmal genug sein mit dem GraKa-OT... ;)

Jens
 
@ars ultima & Corvus

Tip: hängt mal einen KO (Oszi) an die Videoausgänge und guckt euch mal an was die Flanken machen. Es sollte aber schon so ein kleines Tek oder LeCroy Oszi sein sein um anständig triggern zu können..... damit hab ich zum Thema GK ebenfalls geschlossen. ;)
 
Somit haben wir festgestellt das wir alle irgendwo etwas recht un vielleicht nur aneinander vorbeigeredet haben un des gleiche meinen...;)

Es würde sonst au zu weit vom Thread wech führen.

Bin dafür: Back to the Thread.... ;)

gruß Corvus :rock:
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben