PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Shutterbrille für normalen 200Hz LCD Fernseher? Full HD 3D ohne 3D-ready?



DeadEyeTAKI
01.12.2010, 15:53
Hallo,

Ich habe Google jetzt Tage lang abgesucht und viel zum Thema 3D gelesen. Trotzdem habe ich keine Antwort auf meine konkrete Fragestellung gefunden. Ich habe zwar hier und da etwas gefunden, dass etwas in die Richtung geht. Aber genau meine Frage wurde nicht beantwortet. Daher bin ich jetzt so mutig, und poste die Frage einfach mal! ;)

Ich suche eine Lösung für eine Shutterbrille, die ich mit meinem normalen Fernseher nutzen kann. Mein Fernseher ist NICHT 3D-ready! Er kann aber Bilder mit 200Hz darstellen. Ich habe schon gelesen, dass wahrscheinlich mit starkem Ghosting zu rechnen ist, wenn man es überhaupt hinkriegen würde, den Fernseher mit einer Shutterbrille zu synchronisieren und ihn entsprechend sequentiell mit unterschiedlichen Bildern für das rechte und das linke Auge zu beliefern.
Ich würde es aber gerne selbst ausprobieren und selbst beurteilen, ob so eine Installation für mich taugt oder nicht. Der Fernseher soll das ganze natürlich in Full HD anzeigen können.

Mein Fernseher ist ein Sony Bravia KDL-40Z5500.

Als Zuspieler möchte ich meinen PC mit aktueller Radeon-Graphikkarte verwenden. Als Software denke ich an den Stereoscopic Player.
Was ich schon getestet habe: Wenn ich den Stereoscopic Player so einstelle, dass er nacheinander die Bilder für das linke und das rechte Auge ausgibt, dann kann der Fernseher diese Bilder auch über HDMI anzeigen! Auf den ersten Blick sieht es so aus, als ob die Darstellung auch wie gewollt funktioniert. Mit bloßem Auge kann ich aber natürlich nicht beurteilen, ob auch wirklich alle Frames ankommen, die ankommen sollten!

Jetzt fehlt mir wie gesagt eine Shutterbrille, die ich mit dieser Konfiguration nutzen kann! Kann mir da jemand weiterhelfen?
Würde eine DLP-Brille funktionieren? Der Fernseher kann offiziell natürlich kein DLP. Aber so wie ich es verstanden habe, ist bei DLP das eigentliche Synchronisationssignal ja in der Bildinformation enthalten. Daher könnte ich mir vorstellen, dass es trotzdem funktioniert. Der Stereoscopic Player müsste die Bilder ja nur entsprechend an den Fernseher schicken. Oder liege ich da falsch?
Falls ich falsch liege: Gibt es eine Shutterbrille mit Infrarot-Synchronisation, die mit einer ATI Radeon funktioniert und die per Software gesteuert werden kann?
Ich hatte ganz früher den ELSA Revelator. Da war es aber so, dass ein spezieller Adapter zwischen Monitor und VGA-Port geschaltet werden musste. So wurde der Infrarot-Sender gesteuert. Bei meiner Konfiguration müsste das Synchronisationssignal entweder vom Player direkt gesteuert werden, oder es müsste sich ein extra Treiber an den Graphikkarten-Treiber anklinken.

Wer hat eine Idee?

Hat vielleicht jemand schon etwas Ähnliches versucht?

Viele Grüße
DeadEyeTAKI

Metalheim
01.12.2010, 16:26
Naja, der Fernseher nimmt Signale mit maximal 60hz entgegen und rechnet die auf 200Hz hoch.
Das heisst pro Kanel kriegst du maximal 30 Hz hin. Da nützen auch die 200Hz intern nichts. 30Hz pro Kanal ruckelt ziemlich.

DemolitionB
01.12.2010, 17:03
kannst ja nen video erstellen mit abwechselnd nem roten und blauen bild und dann schaun was auf dem fernsehr für ne farbe ankommt.
oder alternativ pro frame ein 10ner cluster punkte anzeigen, die vertikal durchs bild ziehen, sodass du aufm fernsehr entweder ne schöne linie oder ne strichellinie siehst.

keine ahnung ob irgendjemand hier jetzt mein gedankengang nachvollziehen konnte, bzw. ob man videos so einfach aus bildern erstellen kann.

Metalheim
01.12.2010, 17:07
Keine ahnung ob irgendjemand hier jetzt mein gedankengang nachvollziehen konnte, bzw. ob man videos so einfach aus bildern erstellen kann.

Ja und ja
Aber wie gesagt, man kriegt das Bild halt nicht mit mehr als 60Hz, eventuell noch 75hz in den Fernseher rein.

DeadEyeTAKI
01.12.2010, 17:20
Vielen Dank für Eure Antworten!

@DemolitionB:
Ja, gute Idee. Könnte man so machen! Ich würde es aber einfach gerne mal mit einer Shutterbrille ausprobieren. Wenn es gar nicht funktioniert, kann ich sie ja wieder zurück schicken.

@Metalheim:
Hast Du die Info mit den 60Hz aus einem Datenblatt? Ich habe in einem anderen Thema gelesen, dass bis zu 100Hz möglich sind. Und wie machen das die "echten" 3D-ready-TVs? Mein Bravia ist ja der Vorgänger der jetzigen 3D-ready-TVs. Kann mir irgendwie nicht vorstellen, dass die tatsächlich die Signalverarbeitung doppelt so schnell gemacht haben, so schnell wie die sich die neuen 3D-TVs aus dem Ärmel geschüttelt haben.

Aber sei's so ........ selbst wenn der Fernseher wirklich nur 60Hz kann - ich würde sehr gerne ausprobieren, wie das wirkt!! Den ELSA-Revelator habe ich damals auch nur mit 60Hz benutzt ... waren also auch nur 30Hz pro Auge! Ich fand das damals ziemlich ansehnlich! Außerdem könnte die Zwischenbildberechnung ja auch eine Verbesserung bringen (falls sie nicht zu ungewollten Effekten führt, die die Bilder fürs linke und fürs rechte Auge "vermischen").

Hat jemand von Euch eine Idee, welche Shutterbrille ich nehmen könnte und wie ich sie synchronisieren kann?

Metalheim
01.12.2010, 17:31
Naja, alle 100Hz oder 200Hz Fernseher haben meines erachtens "nur" ~60 Hz im Eingang, die Hertz Angaben sind nur, was das Panel kann und wie es angesteuert wird.
Im Eingang ist es sowieso durch HDMI begrenzt, das in Version 1.3c (also der letzten vor 3D) nur bis maximal 1440p/60 Hz ausgelegt ist (1440p = 2x 720p).
3D mit 100Hz wäre damit also auf 1080i begrenzt.

FullHD UND 3D in 100Hz geht nur mit dem passendem Eingang, also Hdmi 1.4 oder einem Gerät, dass Side-by-Side Verfahren unterstützt.

DeadEyeTAKI
01.12.2010, 17:41
Das mit den 60 Hz am Eingang würde mich etwas wundern. Die DLP-Brillen sind doch auf 120Hz ausgelegt. Die würden ja dann z.B. mit den Samsung-TVs gar nicht funktionieren! Oder habe ich da jetzt einen Denkfehler?

Slotax
01.12.2010, 20:39
Hi
mit Nvidia wollte ich das Problem lösen und über VGA auf meinen alten Plasma TV darstellen
doch mein Plasma kann nur 60Hz
aber wenn dein TV am PC eingang 200Hz schaft könnte das funktionieren
hier ein Link http://www.nvidia.de/object/3d-vision-main-de.html

LG Slotax

Madin_nbg
02.12.2010, 06:52
hab noch so ein 3d-fx tv konverter mit 2 brillen da falst du interesse hast kann 3d filme verarbeiten oder 2d in 3d konvertieren ... 60 euro und es gehört dir ... hab mir eine acer 3d dlp beamer mit 3d brillen gekauft somit liegts bei mir nur rum

http://www.razor3d.de/b2b/produktspcial_x3dtvbox.asp

DeadEyeTAKI
02.12.2010, 13:01
@Madin_bng:
Danke für Dein Angebot. Auf dieses Set bin ich beim Surfen auch schon gestoßen. Nur möchte ich das ganze wie gesagt in HD machen! Daher möchte ich meinen Fernseher wie gesagt direkt per HDMI an den PC anschließen.
Ich kann mir auch nicht vorstellen, dass so eine Konvertierung sonderlich gut funktioniert.

Wie sind denn Deine Erfahrungen mit dem Set?


@Slotax:
Ja, genau - diese Info hat mich ja auf die Idee gebracht. Danach sieht es so aus, als bräuchte man nur ein Panel, was mindestens 120Hz schafft.

Nur ist eben das Problem, dass ich keine Nvidia-Graphikkarte habe, sondern eine Radeon! Deshalb bringt mich die 3D-Vision von Nvidia auch nicht weiter!



- Kennt keiner eine Shutter-Brille, die man unabhängig von Nvidia an einem PC betreiben kann?

- Was ist mit meiner Idee, eine DLP-Brille zu nutzen?
Ich habe das System nicht 100%ig verstanden, aber so wie es bei Wikipedia zu lesen ist, werden bei diesem System zusätzlich zu den Frames fürs rechte und linke Auge auch noch weitere Frames zur Synchronisation der Brillen angezeigt. Wenn das so richtig ist, müsste die Software ja nur diese zusätzlichen Frames mit ausgeben. Da der Stereoscopic Player meines Wissens auf DLP-Betrieb umgestellt werden kann, müsste es funktionieren, wenn der Fernseher das richtig darstellen kann. Also - falls der Fernseher einige Frames verschluckt, kann es natürlich nicht klappen. Aber wenn die Synchro-Frames richtig ankommen und darüber hinaus abwechselnd ein Bild fürs rechte und fürs linke Auge ankommt, dann müsste es funktionieren! - Bei welcher Frequenz auch immer! ;)
Ich bin nur nicht sicher, ob das wirklich so simpel ist mit DLP.

simfight
02.12.2010, 13:52
Argh grad nen riesen Beitrag geschrieben und jetzt alles weg.
Kurze Zusammenfassung:
E-Dimensional 3D Brille tuts direkt an VGA.
Für Analog also kein Problem auch ohne NVidia, ne Revelator geht bei mir mit Adapter (Wie immer über DDC oder VSync dank Adapter, machen auch die E-D und andere Brileln so)
Digital (HDMI) gehts nur mit 3D Vision USB Box und NVidia Graka. Man kann auch billigere Brillen als die Nvidia gehen in dem man das IR Signal aufarbeitet.

Am Besten du probierst erstmal den analogen Eingang mit nem Testbild in 3D - irgendwer kann dir sicher 3D Brille und Widergabegerät leihen. Nur so lässt sich wirklich gut testen welche Frequenzen 1:1 dargestellt werden. Vorher wäre alles andere sinnlos.
Bei Doublescan der alten Röhren war 3D machbar, bei Zwischenbildberechnung und nicht abschaltbarer Interpolation ist es unmöglich. Kann aber gut sein, dass die hier schon genannten 75Hz reell funktionieren. Ist das Panel nicht zu träge gibt es Chancen.
Aber gut wirds nur mit 3D Vision Brille oder anderen LCD Brillen:
Die Brille muss beide Augen in der "Umschaltzeit" der LCD Kristalle abdunkeln, sonst massives Ghosting und Schlieren. Hinweis: Oft wird bei >75Hz auf 60Hz skaliert und 75 werden noch nativ dargestellt. Nativ ist bei LCD und den trägen Controllern aber immer Auslegungssache.
Da sind Röhren mal wieder klar im Vorteil *G* (Schonmal jemand 3D auf nem CRT Rüpro probiert?)

Metalheim
02.12.2010, 13:55
N Kumpel hatte mal ne Relevator und ich habs auf meinem Röhren Monitor Probiert: 1280x1024 (um 720p darzustellen) bei 120Hz - Lief Super.
Rückpros haben meistens eh nur SCART Eingang ?!? Richtig/Falsch ?

simfight
02.12.2010, 14:20
N Kumpel hatte mal ne Relevator und ich habs auf meinem Röhren Monitor Probiert: 1280x1024 (um 720p darzustellen) bei 120Hz - Lief Super.
Rückpros haben meistens eh nur SCART Eingang ?!? Richtig/Falsch ?

Naja die Frage ist, was die Elektronik macht.
Viele alte DLP Beamer sind 3D tauglich, da sie das Eingangssignal 1:1 wiedergeben. Stichwort "Out of Range".
Bei neueren regeln die Controller alles zu einem "Bildmatsch". So ist nahezu 100% Kompatibilität gegeben, jedoch wird alles so standardisiert, wie der Hersteller es für sinnvoll hält.
Bei CRT Rüpros wird also je nach Modell entweder garnichts gehen, Murks rauskommen oder aber ein Bild mit höhrere Auflösung bzw. Scanrate als ursprünglich.
Scart ist doch (ja, scheiss Franzosenstecker) eine schöne Möglichkeit um RGBs einzuspeisen.

DeadEyeTAKI
02.12.2010, 15:13
@simfight:
Danke!! Das sind wirklich hilfreiche Informationen!!
"Die Brille muss beide Augen in der "Umschaltzeit" der LCD Kristalle abdunkeln" - an solche Details habe ich bisher gar nicht gedacht. Das könnte wirklich zu einem Problem werden.
So eine E-Dimensional 3D Brille wäre wirklich mal einen Versuch wert!!

simfight
02.12.2010, 15:42
Hat der TV denn nen VGA Eingang?
Wenn du nen alten PC mit AGP rumfliegen hast kann ich dir gegen Porto (2,20 als Maxibrief?) mal ne Revelator plus NVidia Graka leihen. Das reicht für das Testbild und Halflife 1 in 3D =) (Lief hier mit nem AMD K6-2, der später zum DSL router wurde und jetzt fürs VDSL routen zu langsam ist)
Wenn du nen Rechner mit ner alten (<9000er) Nvidia Graka hast wird das auch gehen.
In meinem alten Rechner sitzt ne 8000er NVidia testweise für die Revelator (alte Treiber)
-> http://www.stereoforum.org/viewtopic.php?f=106&t=931
Kann sein, dass eine 9000er noch geht - mehr aber nicht.
Ansonsten machen die EDimensional brillen mit jedem beliebigen Röhrenmonitor auch spass - mein 23" "Gratisbildschirm" packt 140Hz bei 1280*720 Pixeln, also absolut flimmerfrei.
Übrigens: Wenn du das ursprüngliche Schaltsignal abgreifst könntest du solche beidseitigen Abdunklungen auch realisieren und sogar justierbar gestalten (je nach Reaktionszeit des LCDs), dann hat man Ghosting vs Flimmern (bei LCD ist es eher Blitzen, da das Bild nicht nacheinander aufgebaut wird wie bei ner lahmen Röhre sondern einfach nur lange dunkel ist). Bei ner kabelgebundenen Revelatorbrille kein Problem.
Etwas Begabung im Bereich Elektronik, Umgang mit dem Lötkolben und Kenntnisüber die wichtigsten ICs für sowas vorausgesetzt...


http://cgi.ebay.de/SHUTTERBRILLE-Terminator-wired-/130442097529
Das sollte die preiswerteste Klinkestecker Shutterbrille sein - passender Controller vorrausgesetzt =)


Die Razor 3D / ED Brille hatte bis vor kurzem keine 25 Euro gekostet. Auf keinen Fall mehr ausgeben!
http://www.razor3d.de/3d_pc.asp
Im Banner rechts steht sogar noch der alte Preis, nur beim Verkauf hat sich der geändert. Habe mich schon gewundert...

Info dazu:
http://www.gamezone.de/specials_detail.asp?id=132

Woran erkennt man DDC Brillen vs Sync brillen?
Einfach:
Beim DDC wird das Signal so übertragen, dass die brille "weiss" wann der Frame fürs rechte und wann der fürs linke Auge kommt.
Bei den Sync Brillen gibt es einen Umschalter. Die shuttern auch dauerhaft - DDC nur wenn vom Treiber aktiviert. Gibt für den Bus auch extra Stecker / Buchsen an Projektoren, Grafikkarten uvm. Aber bei den Consumerkarten von ELSA / Nvidia ging es eigendlich nur mit dem Adapter. Ist auch sehr störungsanfällig (IRQ Probleme, Kommunikationsfreudige Monitore etc)

Bei eBay ist grad ne Razor drin:
http://cgi.ebay.de/Razor-PC-3D-System-kabelgebundener-Shutterbrille-/180593759816
Einfach mal bieten =) Macht wie gesagt auch am CRT Spass.
Und games nur mit Nvidia? Selbst schuld wer deren vermurkste Treiber nimmt:
Problem bei 3D Vision: Wer kein Dongle besitzt, dem nützt auch ne Suhtterbrille nix: 3d Vision gibt nur bei angeschlossenem Dongle ein pageflipping 3d Signal aus, sonst nur 3D mit anderen Mitteln (Anaglyph). Keine Ahnung ob der Nvidia Treiber Interlace, Side by Side, dual screen o.ä. untersützt. Bräuchte man aber auch wieder ein (oder zwei) widergabegeräte die das packen.

DeadEyeTAKI
02.12.2010, 16:53
Ja, mein TV hat VGA! ...... ich frag mich grad ... bis zu welcher Auflösung kann VGA überhaupt benutzt werden? Eigentlich war ich ja froh, dass ich weg von VGA bin und jetzt auch direkt per HDMI an meinen Laptop ran kann. Aber hier könnte sich der gute, alte VGA-Port ja wirklich noch als nützlich erweisen! :)
Außerdem habe ich noch einen 23"-Röhrenmonitor, der sogar FullHD-Auflösung packt! Also, falls es der Fernseher nicht bringt, dann wenigstens der Monitor!! ;) (Allerdings schafft der Monitor die höchste Auflösung glaube ich auch wieder nur mit 60Hz.)

Hab sogar noch einen alten PC mit einer Nvidia-GraKa: Eine GeForce4 Ti 4600, wenn ich mich nicht irre.
Frage: Wieso muss es denn unbedingt eine Nvidia-GraKa sein? Übrigens möchte ich den 3D-Effekt gar nicht fürs Gamen. Mein Laptop ist von Acer und hat ein spezielles Display. Mit einer Pol-Brille kann ich dank TriDef damit eh schon in 3D spielen.
Mir geht es hauptsächlich um Filme und Fotos ..... möchte mir demnächst diese Fuji-3D-Digi-Cam zulegen.




"Das sollte die preiswerteste Klinkestecker Shutterbrille sein - passender Controller vorrausgesetzt =)"
Was fehlt mir dann noch? Der VGA-Adapter und die Treiber, richtig?



... kann ich dir gegen Porto (2,20 als Maxibrief?) mal ne Revelator plus NVidia Graka leihen.

Das wäre natürlich super! Brauche ich Deine GraKa, oder kann ich auch meine alte Nvidia nehmen? Möchtest Du die Revelator vielleicht gleich verkaufen? Meine Revelator habe ich leider vor langer Zeit bei einem Umzug verloren. Ich dachte aber eh, dass die nur mit ELSA-GraKas gingen.

Danke für Deine Hilfe!

(PS: Löten könnten ich zur Not auch ein bisschen. Hab auch einen Feinlötkolben. Bin aber nicht so der Elektronik-Spezialist. Daher würde ich lieber ohne Löten auskommen.)

simfight
02.12.2010, 22:30
Also:
Nvidia Grafikkarte ist nur bei der Revelator Brille von Nöten.
Zumindest wenn man den beigelegten Adapter (Din Stecker mit DDC Steuerung) nimmt. Denn die Revelator wird über den Treiber mit DDC gepulst.
Das kann TriDef nicht, auch die anderen Treiber (für Spiele) die mit zB ATI/AMD Karten laufen können das nicht. Und nur alte Nvidia Treiber können das (bzw die alten Revelator Treiber dazu). Die neuen 3D Vision nicht - da ist 'ne Sperre drin. Die wollen ja neuen Kram verkaufen.

Mit der verlinkten ehemals 25 Euro Brille kannst du OHNE bastelleien jede Grafikkarte nehmen. Die shuttert fröhlich vor sich hin und man muss nur gelegentlich (immer wenn er den Sync mal verliert und falschherum neu bekommt bzw. zu 50% Wahrscheinlichkeit bei jedem Einschalten) den Sync-Schalter umlegen. Habe für meine Kabel-Revelator Brille mit DDC-VGA Adapter vor einiger Zeit 20Eur plus Versand bezahlt, wenn dir ein Maxibrief reicht kann ich sie dir auch für 20Eur incl. Versand verkaufen.
Deine Grafikkarte müsste problemlos funktionieren, musst nur etwas nach passenden Treibern googlen. Habe das gerade nicht mehr so auf dem Schirm, ist alles schon eine Zeit her^^

Zur 23" Röhre: Habe ewig mit den Timings rumgespielt, bis ich so wenig Sync Fenster hatte, dass satte 140Hz möglich waren.
Mit FullHD geht da nicht viel - aber meist sind die CRTs so verbraucht, dass es sich kaum lohnt. Gerade bei 23" sind 720p für 3D mehr als ausreichend (habe ja auch nur den acer 720p 3D DLP).

Anmerkung ohne Zugehörigkeit:
Genial wäre für 3D Gaming eine Quadbuffered Karte mit OpenGL aber du willst ja eh "nur" Filme *g*

Und zu deiner ersten Anmerkung:
Meiner Meinung nach hat VGA viel größere Vorteile - gerade gegenüber HDMI. Das liegt einfach daran, dass mit Analogtechnik deutlich mehr "bastelleien" realisierbar sind. Ein digitales Videosignal ist nicht so einfach zu verarbeiten. Kenne mich allerdings auch nicht im Detail mit dem Videosignal bei HDMI aus, bzw. überhaupt DVI-D und so. Also sicher gibt es eine Möglichkeit das zu decodieren und den Sync abzugreifen aber bei analoger Technik ist das (wenngleich unsauberer) einfach VIEL besser.
Und zur Bildqualität:
720p mit 140Hz gingen auch nur über ein (dickes, gut geschirmtes) VGA Kabel und der CRT Beamer hat lange Zeit bei 200Mhz an einem 10m VGA Kabel gehangen. FullHD ist - wie man an einigen Röhren im Forum sieht - kein Problem. Keine Ahnung bis zu welcher Bandbreite (das ist ja das limitierende) so ein Analogkabel freigegeben ist - aber ich habe zum Digitalkabel noch keinen Unterschied sehen können. Vorteile hat das digitale Kabel meiner Meinung nach nur darin, dass Verluste durch Wandlung Digital->Analog->Digital wegfallen (beim CRT mal ausgenommen, da muss ja einmal gewandelt werden).
Ich verstehe auch nicht warum mein neues 20m HDMI Kabel so dick ist wie ein billige VGA Kabel - und warum es da so teure Kabel gibt. Digital ist digital - da gibt es keine "Signalqualität", die besser oder schlechter wird. Naja das war jetzt gerade sachlich falsch aber was ich damit sagen möchte ist: Entweder das Signal ist dem Gerät gut genug und es kommt ALLES an oder es ist schlecht und es kommt nichts.

Nachteil bei langen VGA Kabeln (ich schweife wie so oft weit vom Thema ab) ist - meine Meinung - die Kapazität des Kabels. Es ist ja genaugenommen ein riesiger Kondensator - je länger desto schlimmer. Das kostet "Kontrast" -> Ist weiß "high" und schwarz "low", so ist kein unendlich steiler Signalabfall möglich (Elektronisch bedingt allein schon) -> Keine 100%ige Pixeltrennung. Beim Digitalsignal wird sowas "ignoriert" (Fehlerkorrektur bzw. Bitmuster). Da das Kabel als "Kondensator" erstmal den Pegel erhalten muss (wie bei einer Spule die mit einer Spannung versorgt wird, denn auch um das Kabel baut sich gewissermaßen ein Magnetfeld aus) wird das noch flacher. Das Bild schlechter. Das ist, was man nicht durch gute Schirmung wegbekommt. Aber SICHTBARE Vorteile hat ein digitales KABEL gegenüber einem Analogen imho nicht. (Wie gesagt eher die Umwandlung ist das Problem)

DeadEyeTAKI
06.12.2010, 16:23
@simfight:
Danke für Deine Hilfe! Ich habe den Artikel bei E-Bay, den Du geposted hattest, tatsächlich gekriegt!! Bin mal gespannt, was damit so machbar ist!
Auch super, dass Du mich wieder auf VGA gebracht hast! Wie gesagt ... ich hatte das echt schon abgeschrieben! Aber für diese Zwecke könnte ich mir gut vorstellen, dass es ideal ist.
Die technischen Details zu den Kabeln sind auch spannend. Meiner Meinung nach ist das eh reine Verkaufsstrategie, dass so teure HDMI-Kabel verkauft werden. Die Kunden sind es gewöhnt, für hohe Bildqualität bessere Kabel zu brauchen. Sobald es analog wird, ist es ja auch wichtig. Und wenn man dann "HIGH-Definition" haben will, klingt es logisch, dass man auch ein HIGH-End Kabel braucht. Aber wie Du schon gesagt hast: Digital heißt ja gerade: Entweder funktioniert es, oder eben nicht - keine Abstufungen.

Zum Thema DLP-Link:
Ich dachte, ich versuche es einfach mal. Also habe ich mir eine DLP-Link-Brille bestellt und mit meinem Sony-TV getestet, der laut Hersteller keine DLP-Funktion hat. Als Zuspieler habe ich mein über HDMI angeschlossenes Notebook benutzt. Dort lief der Stereoscopic Player mit DLP-Wiedergabeoption. Leider hat es - wie zu befürchten war - nicht funktioniert. Es hatte überhaupt keinen erkennbaren Effekt ... das Bild sah identisch mit und ohne Brille aus.
Schade - aber jetzt weiß ich es wenigstens. Die Brille schicke ich zurück.

Meine ganze Hoffnung liegt jetzt also auf der von simfight vorgeschlagenen Shutterbrille!!! ;)

simfight
06.12.2010, 17:33
Dann bin ich mal gespannt was der Fernseher "nativ" wiedergibt - und wie das Ghosting dabei ist.
Wenn das Ganze funktioniert, könntest du dir überlegen (wird dich aber Zeit kosten, vonwegen einarbeiten in die Grundlagen) eine Schaltung zu bauen, die sich an den Sync anpasst und um das Signal herum die Dunkelzeiten schafft.
Die wohl beste Lösung wäre aber dann das Nvidia Vision Dongle - einen Adapter für (beliebige) 3D Brillen kann man sich dann ja basteln.
Und dann kannst du auch auf VGA verzichten.
Das bringt aber alles nichts, wenn man nicht VORHER weiss, dass es was wird.
Und für den Röhrenmonitor hast du jetzt auf jeden Fall eine funktionierende 3D Lösung =)
Aber wenn du was kaufen und widerrufen angeht ohnehin kein Angsthase bist kannst du zum Testen auch ein 3D-Vision Dongle - Gleich mit Brille - holen und den Fernseher "normal" per HDMI anschliessen. Zu Testzwecken versteht sich *g*

DeadEyeTAKI
06.12.2010, 18:02
Nochmal ganz blöd gefragt: Geht der 3D-Vision-Dongle nicht nur mit Nvidia GraKa?
Ich habe zwar wie gesagt noch ein altes System rumstehen, wo eine ältere Nvidia-Karte drin ist. Aber mein aktuelles Notebook, das ich eigentlich dafür benutzen wollte, hat eine Radeon!
Wie gesagt geht es mir nur um Filme und Fotos ... nicht um Spiele! Wenn Du mir jetzt sagst, dass das mit einer Radeon geht, bestelle ich mir noch heute den Nvidia-Dongle!!! ;)

Metalheim
06.12.2010, 18:39
Nope. Da muss ich dich leider enttäuschen: Nvidia 3d-vision geht nur mit ner nVidia Grafikkarte

simfight
06.12.2010, 20:01
AH Notebook mit Radeon ist dafür natürlich blöd - da tuts nur ein X-beliebiger PC oder sogar ein Atom mit ION =)
Meine ganzen Business Notebooks haben entweder ne bililge Intel oder ne gute NVidia Quadro. Interesse? *rofl*
Na dann wirds wohl WIRKLICH DIY und ohne VGA schwer.

DeadEyeTAKI
06.12.2010, 21:23
da tuts nur ein X-beliebiger PC oder sogar ein Atom mit ION

Nochmal ganz blöd gefragt: Wie ist das denn zu verstehen? Heißt das, es geht mit allem außer ATI? Ich habe auch noch ein 2. Notebook mit HDMI und einem Intel HD Graphics Accelerator. Wie sieht es damit aus?

simfight
07.12.2010, 00:36
Neein geht natürlich nur mit NVidia Karten. Aber die kann man in jeden PC einbauen und ein Atom mit ION hat auch nen NVidia Grafikchip, der 3D tauglich ist. So war das gemeint^^
Sorry wegen der missverständlichen Äußerungen...
Und ich meine deshalb X-beliebiger PC, weil man bei dem im Gegensatz zu einem Notebook zB einfach die Karte wechseln kann oder zusätzlich eine einbauen kann (uvm)...

DeadEyeTAKI
07.12.2010, 11:08
ich meine deshalb X-beliebiger PC, weil man bei dem im Gegensatz zu einem Notebook zB einfach die Karte wechseln kann

Ah, okay - so war das gemeint. Hm, dann bringt mir das momentan erstmal nichts. Wie gesagt - ich habe zwar noch einen alten Tower-PC irgendwo rumstehen, und der hat sogar eine Nvidia-GraKa. Aber Der hat dann wieder kein HDMI. Und ich bin mir nicht sicher, ob die Rechenpower von dem Rechner für 3D in Full HD ausreichen würde. Also bleibt es erstmal bei der billigen Shutterbrille per VGA! Mal sehen, was damit möglich ist.
Schade, dass ATI noch nichts Vergleichbares zu Nvidias 3D-Vision gebracht hat!!!

simfight
07.12.2010, 13:40
Naja da für 3D keine spezielle Grafikkarte nötig ist, hat ATI schon vor Jahren erkannt, dass es eigendlich sinnlos ist, dafür ein System zu entwickeln.
Eine der vielen verfügbaren APIs um mit ATI Karten in 3D zu zocken ist zB TriDef:
http://www.tridef.com/home.html
Natürlich geht auch mit dem "normalen" Stereoscopic Player 3D mit jeder ATI Karte.
Was es eben nicht gibt ist so einen Receiver wie "3D Vision". Fakt ist aber, dass mit DLP 3D und vielen eigenen Standards - dank HDMI neuester Spezifikation - die 3D Kompatibilität (sinngemäß) beim Endgerät liegt.
Habe hier noch eine AGP Nvidia Karte aus nem Pentium 4 (3Ghz) - der schafft 720p in 3D und FullHD ohne 3D problemlos. Bei beidem wirds aber echt eng^^
Und denk dran: Wenn DVI vorhanden ist - das ist das selbe wie HDMI (naja eigendlich besser, da auch ein analoges Signal übertragen wird) *g*
Zum Thema Rechenpower: Die Grafikkarte kann das zumindest bei ATI/AMD und NVidia übernehmen. ATI wie immer Drittanbieter und NVidia direkt. Dann wird das Encoden eines Filmes kein Problem sein, eine 9600GT (PCIe) habe ich - falls du dir ein Vision Dongle zulegen willst - auch noch hier.

DeadEyeTAKI
07.12.2010, 14:17
Eine der vielen verfügbaren APIs um mit ATI Karten in 3D zu zocken ist zB TriDef:

Wie gesagt - TriDef habe ich ja sogar! Deshalb kann ich ja auf meinem Laptop auch in 3D spielen! Das einzige, was da das Spielevergnügen stört, ist nur, dass es bei Mutliplayer-Spielen scheinbar manchmal als "Cheat" fehl-interpretiert wird. Beim Battlefield Bad Company 2 zocken fliege ich z.B. nach 1-2 Min. vom Server, weil PunkBuster sich am 3D-Treiber stört. Weiß nicht, ob das mit Nvidia's Lösung anders ist.



Natürlich geht auch mit dem "normalen" Stereoscopic Player 3D mit jeder ATI Karte.
Das stimmt. Ich habe gestern spaßeshalber einen Avatar-Trailer in 3D auf dem Laptop laufen lassen (above/below). Hat super geklappt! Allerdings habe ich dafür natürlich die Pol-Brille benutzt, die mit meinem Laptop mitgeliefert wurde und die natürlich nur funktioniert, weil das Laptop ein spezielles Display hat, was zeilenweise unterschiedlich polarisiertes Licht aussendet. Bringt mir für mein TV natürlich nichts.



Was es eben nicht gibt ist so einen Receiver wie "3D Vision".
Ehrlich gesagt verstehe ich immer noch nicht, was es mit diesem "Receiver" auf sich hat. Ist das dieses kleine Pyramiden-ähnliche Teil, was auf der Nvidia-Page zu sehen ist? Ich dachte, das wäre nur ein Infrarot-Emitter, der für die Synchronisation von Bildausgabe und Brille sorgt. Liege ich damit falsch? Was kann das sonst noch?

simfight
07.12.2010, 15:11
Ehrlich gesagt verstehe ich immer noch nicht, was es mit diesem "Receiver" auf sich hat. Ist das dieses kleine Pyramiden-ähnliche Teil, was auf der Nvidia-Page zu sehen ist? Ich dachte, das wäre nur ein Infrarot-Emitter, der für die Synchronisation von Bildausgabe und Brille sorgt. Liege ich damit falsch? Was kann das sonst noch?

Das ist der "3D Vision Kopierschutz", der verhindert, dass (neue) Nvidia 3D Treiber ("3D Vision Treiber") 3D ausgeben, wenn das Dongle nicht angeschlossen ist.

DeadEyeTAKI
07.12.2010, 15:23
Du sagtest doch aber, dass die 3D-Vision Vorteile hat, wenn es um die Ausgabe auf einem LCD geht. Ich hatte es so verstanden, dass dafür der "Receiver" (ist das diese schwarze "Pyramide"?) verantwortlich ist.
So wie ich aber Deinen letzten Post verstehe, hat das 3D-Vision-System doch eigentlich nur Nachteile.
Oder wo ist konkret der Vorteil gegenüber dieser Billig-Lösung, wie ich sie bei E-Bay gekauft habe?

simfight
07.12.2010, 16:49
Die 3D Vision SOLLTE auf LCDs ausgelegt sein und etwas andere Schaltzeiten haben, genauso andere "LCD" Brillen.
Gibt aber eben auch "LCD taugliche" Brillen von anderen Herstellern.
Der einzige Nachteil bei 3D Vision sind der Preis und die Abhängigkeit von NVidia Grafikkarten (und Treibern), ansonsten gibt es eigentlich nur Vorteile. Man könnte (google) einen 3D Vision -> VESA Adapter basteln im die Vorteile beider Systeme zu kombinieren.
Eine "LCD" Shutterbrille geht auch mit CRT/DLP, kann dann aber abgeschnittene Bilder oder Farbverschiebungen verursachen.
Probiere erstmal, was überhaupt mit der preiswerten Brille geht. Das ist besser, als gleich so viel Geld auszugeben. Vor allem weil dir 3D Vision ohne NVidia Grafikkarte GARNICHTS bringt.

TbM
08.12.2010, 08:26
Und denk dran: Wenn DVI vorhanden ist - das ist das selbe wie HDMI (naja eigendlich besser, da auch ein analoges Signal übertragen wird) *g*
Wobei es HDCP-fähiges DVI sein muss, sonst wollen da zB. manche Software-Player kein HD-Bild ausgeben, ältere DVI-Karten haben oft kein HDCP...

simfight
08.12.2010, 09:48
Wobei es HDCP-fähiges DVI sein muss, sonst wollen da zB. manche Software-Player kein HD-Bild ausgeben, ältere DVI-Karten haben oft kein HDCP...

Sorry aber wer so BLÖD ist und Geld für "kopiergeschütztes" (abspielbeschränktes) Material ausgibt ist selbst schuld.
Ich würde nie ein Medium erwerben, dessen Benutzung mehr Aufwand bedeutet als der Download.
Man kann es auch so ausdrücken: Den Schaden im Bereich der Urheberrechtsverletzungen bedingt die Branche selbst durch solch einen Blödsinn. Sobald mir mein örtlicher BluRay Laden ein HDFury zum Kauf der ersten BD dazu gibt, werde ich mir überlegen, wieder Geld dafür auszugeben. Aber die Zeiten sind - so sehe ich das - vorbei.
Und DVI ist - an sich - HDCP fähig, dann allerdings nur beim digitalen Signal. HDCP gibts ja nicht für analog :p
Hängt viel mehr von der Grafikkarte bzw. dem Empfänger ab, DVI vereint einfach HDMI und VGA - nichts weiter. (Auch wenn HDMI später kam...)

Naja das schweift nun aber zu sehr in Richtung OT ab - aber Recht hast du wenn man das Gerät speziell betrachtet, das nur nen DVI und keinen HDMI Anschluss hat bzw. kein HDCP. Zum Beispiel ältere TFTs und Beamer sind da ein Problem.
Das selbe gilt für alte Grafikkarten ohne entsprechende Unterstützung.

DeadEyeTAKI
13.12.2010, 16:45
Mein aktueller Stand:

Ich habe inzwischen eine Razer3D-Shutterbrille. Mit einem Röhrenmonitor und dem Stereoscopic Player funktioniert sie tadellos. Nachdem ich das ausprobiert habe, habe ich endlich meinen Test mit meinem LCD-TV gemacht (angeschlossen über VGA). Das Ergebnis war mehr als niederschmetternd!!! Es funktioniert überhaupt nicht! Ich hatte mich ja auf schlimmes Ghosting eingestellt. Aber nicht mal das ist zu sehen! Tatsächlich macht es keinen sichtbaren unterschied, ob man die Brille auf hat oder nicht. Ich habe auch alle Bild-Optimierungen des TVs ausgeschaltet, auf die man Zugriff hat. Auch habe ich natürlich beide Kippschalter-Stellungen der Razer-Brille ausprobiert ... alles ohne erkennbaren Effekt.

Fazit: Mit einer "alten" Shutterbrille, die auf CRTs ausgelegt ist, kann man einem Nicht-3D-Ready-LCD wohl kein 3D beibringen ... zumindest klappt es mit meinem Sony Bravia nicht.

Bliebe also höchstens noch die Variante mit Nvidia's 3D-Vision. Schade!

simfight
14.12.2010, 00:47
Wie gesagt probiere mal mit den Timings herum bzw. überhaupt mit der Refreshrate.
Das Ziel ist es, den VSync so zu wählen, dass das LCD die Frames nativ wiedergibt.
Wenn du Pech hast, kann der LCD Controller das garnicht.
Und wenn es mit der "Röhren-Brille" garnicht geht, wird es mit 3D Vision auch nicht gehen. Daher ist es schonmal gut, dass du hier nicht sinnlos viel Geld investiert hast.

DeadEyeTAKI
14.12.2010, 11:03
Mal ganz blöd gefragt: Was genau meinst Du eigentlich mit Timings? Meinst Du die Bildwiederholrate oder noch was anderes? Wie man die Bildwiederholrate verstellt (wenn es die Treiber zulassen) weiß ich. Das probiere ich mal aus. Aber sonst wüsste ich nicht, wo ich noch was an dem Frame-Timing verstellen kann.