Die Zukunft des Grafikdesigns ? Ohne Polygone?
lima-city → Forum → Die eigene Homepage → Grafikdesign
bild
darstellung
funktionieren
golem
grafik
grafikkarte
http
objekt
pixel
polygon
punkt
software
speichern
system
technik
textur
tun
url
vergleich
video
-
Hey ich habe von einem Kollegen einen interessanten Link erhalten.
Dabei handelt es sich um ein Youtube Video indem ein programmierer über eine neue Art von Grafikdesign spricht.
(ich bin kein fachmann also bitte nich über meine formulierungen ärgern )
hier einfach mal der link:
http://www.youtube.com/watch?v=Q-ATtrImCx4
was haltet ihr davon ?
ich für meinen teil bin sehr beeindruckt muss ich sagen.
aktuell suchen sie investoren...
da diese technologie sogar grafikkarten überflüssig machen würde, denke ich dass die technick sicher für ati, nvidia, intel und amd interessant wäre
/discuss plz
edit: es gibt auch noch mehr videos davon, guckt einfach mal auf youtube, ich möchte nur ungern alle verlinken
Beitrag zuletzt geändert: 25.4.2010 12:53:27 von train4fame -
Diskutiere mit und stelle Fragen: Jetzt kostenlos anmelden!
lima-city: Gratis werbefreier Webspace für deine eigene Homepage
-
Klingt reichlich interessant für den Bereich des 3D-Designs, scheint mir im Momment aber noch sehr unseriös (zumindest, wenn man die Homepage des Projekts betrachtet). Soweit ich das verstanden habe, wurde ein Algorhytmus entwickelt, der sich aus nahezu unendlich vielen Punkten diejenigen herraussucht, die wirklich wichtig für die Darstellung sind, d.h. die Anzahl der darzustellenden Punkte richtet sich nach der aktuellen Bildschirmauflösung des Benutzers.
Sofern das System wirklich einschlagen sollte, wäre das natürlich ein extremer Rückschlag für nVidia und ATI, aber auch für einen großteil der aktuellen 3D-Engines, da diese ja meist noch auf dem bewährten Polygon-System aufbauen.
Solange davon aber nicht mal eine ausführbare Demonstration auftaucht, würde ich mich nicht darauf verlassen, dass das, was in dem Video vorgeführt wurde auch das ist, was verspochen wird.
Auf golem.de gibt es einen recht netten Bericht. -
Nun ja...
Sieht schon mal interesannt aus aber
1. Keine Graka = schlechter Shader, Texturen... und so was spielt heutzutage in Games eine größere Rolle als "unendlich Polygonen"
2. Wer braucht schon unendlich Polygonen? Mir reicht einer pro Pixel bei einem Objekt.
Im Grunde stelle ich mir die Technologie ganz simple vor: Objekte werden Bezierkurven artig gespeichert. Dann wird das Objekte geöffnet und dann werden je nach "zoom" zum Objekt so viel Polygonen gerendert damit es "unendlich" aussieht. Ich weis zwar nicht ob es wirklich so funktioniert und auch funktionieren würde aber so könnte es gehen.
Und was hat das mit "der eigenen Homepage" zu tun?
Beitrag zuletzt geändert: 26.4.2010 18:13:42 von krisi12345 -
lastchaos schrieb:
Mich würde viel eher interessieren, ob du überhaupt weißt, um was es hier geht...
Wäre mal interessant zu wissen ob HTML 5 sowas unterstützt! ^^
krisi12345 schrieb: Nun ja...
Diese Technik kommt ganz ohne Polygone aus - detaillierter geht es nicht mehr. Da dies über die Software erreicht wird, werden Grafikkarten überflüssig.
Sieht schon mal interesannt aus aber
1. Keine Graka = schlechter Shader, Texturen... und so was spielt heutzutage in Games eine größere Rolle als "unendlich Polygonen"
2. Wer braucht schon unendlich Polygonen? Mir reicht einer pro Pixel bei einem Objekt.
Das ist so ungefähr das, was diese Technik ausmacht - anstatt Polygone sind tatsächlich die Pixel das Limit der 3D Grafik, hier werden keine Polygone mehr verwendet, sondern die 3D Grafik ist detailreich bis ins kleinste Pixel. Damit das nicht unendlich viel Speicherplatz verbraucht, werden nur die Pixel dargestellt und berechnet, die man tatsächlich sieht. Er vergleicht das mit Google: Google hat Milliarden von Informationen gespeichert und dennoch wird in weniger als einer Sekunde dein Suchwort gefunden, da Google nicht immer den gesamten Speicher durchsucht, sondern nur die "wichtigen" und relevanten Seiten abruft.
Und was hat das mit "der eigenen Homepage" zu tun?
Das ist in "Grafikdesign" und da gehört es doch auch hin... -
Nicht unmöglich. Aber die Frage ist, ob es wirklich schneller ist, als eine normale Grafikschnittstelle. Ich stelle mir das so vor, dass sie von der Kamera aus für jeden Pixel mit einen bestimmten Winkel eine Gerade ziehen und gucken, wo sie das erste Mal einen Punkt trifft.
Problematisch ist, dass diese Punkte doch abgespeichert werden müssen und dann doch für jeden weiteren Punkt in der Umgebung mehr Speicher verbraucht wird. Außerdem dürfte die Suchzeit innerhalb dieser Punkte ebenfalls stark variieren.
Zu kätzle7: Der Vergleich mit Google hinkt. Google hat starke Rechenmaschinen und noch größere Speicherkapazitäten als ein Heimcomputer je haben könnte. Und dennoch ist fraglich, ob die Geschwindigkeit von Google schon ausreichen würde, damit es nicht anfängt zu ruckeln.
Also bleibt die angegebene Geschwindigkeit, die Zeit zum Setzen aller Pixel, hinter der Suchzeit zurück, die entsprechend der Punktanzahl hoch sein wird. Und keineswegs wird das die Grafikkarten verdrängen. Es wird ihnen nur andere Aufgaben zuweisen. Denn die Arbeit zur Darstellung und Berechnung von Polygonen wird dann der Grafikkarte zwar abgenommen, aber gleichzeitig bekommt sie die Aufgabe sich durch unendliche Punkte zu wühlen und immer den richtigen zu finden. -
toolz schrieb:
Jeder Vergleich hinkt und er ist ja nicht auf meinem Mist gewachsen, sondern wurde in dem oben verlinkten Video gebracht. Ich bin kein Search-Engine-Spezailist, aber die Geschwindigkeit ist meines Wissens nicht nur auf die schnellen Rechner zurüchzuführen, sondern eben auf die Konzentration auf das Wesentliche und auf die Indizierung. Wie der Desktopsearch bei Windows, der im Gegensatz zu der früheren Suchfunktion viel schneller zu Ergebnissen kommt, weil er eben nicht mehr jedes mal die gesamte Festplatte neu durchsucht, sondern nur relevante Ergebnisse aus dem Speicher holt und alle anderen einfach "links liegen lässt". Wie das genau gemacht wird, sollen andere erklären, ich weiß nur, dass der Gechwindigkeitsgewinn nichts mit der Hard-, sondern nur allein mit der Software zu tun hat.
Zu kätzle7: Der Vergleich mit Google hinkt. Google hat starke Rechenmaschinen und noch größere Speicherkapazitäten als ein Heimcomputer je haben könnte.
So ist es eben mit dieser Technik auch - sie ist eben völlig neu und basiert nicht im entferntesten auf dem üblichen Polygonensystem und ist deshalb auch nicht unbedingt mit diesem Vergleichbar.
Und keineswegs wird das die Grafikkarten verdrängen.
Das sieht "Unlimited Detail" anders:Den Ausführungen des Unternehmens zufolge handelt es sich dabei um ein "viertes" System neben den bekannten Polygon-, Raytraycing- und Voxeltechnologien, die auf Standardhardware wie gängigen PCs oder sogar Handys funktionieren würde - Grafikkarten seien überflüssig
(http://www.golem.de/1004/74399.html) -
Ich finde, dass Video klingt sehr sensationslüstern, aber an sich ist es eine naheliegende Variante. Finde die Idee gut und auch die Grafik selbst sieht echt gut aus. Das Problem ist aber, dass es an die Wirklichkeit trotzdem nicht rankommt. Wozu braucht man das, wenn man trotzdem nicht über den Status einer Computergrafik hinauskommt?
Beitrag zuletzt geändert: 26.4.2010 20:39:04 von reimann -
reimann schrieb:
Wozu braucht man das, wenn man trotzdem nicht über den Status einer Computergrafik hinauskommt?
Im Video wird aber auch gesagt, dass die Grafiken von Programmierern und keinen professionellen Grafikern erstellt sind. Wenn das Leute machen würden, die das noch besser können, sieht die Grafik ja noch echter aus. Aber an die Realität kann man auch schlecht rankommen, weil das ja die höchstmögliche Qualität ist.
@topic:
Theoretisch klingt das Ganze ja sinnvoll und auch so, als ob es funktioniert. Aber ob es wirklich auch in der Praxis möglich ist, wird sich ja herausstellen.
LG cookies
Beitrag zuletzt geändert: 26.4.2010 20:46:48 von cookies -
Wenn diese Technik funktioniert, kann die Grafik so gut aussehen, wie man möchte. Man könnte zum Beispiel eine echte Parkbank mit Lasern abtasten um an die Point Cloud dieser Bank zu kommen. dann müsste sie nur noch eingefärbt und mit einen Transparenz-, bzw. Reflektionswert angereichert werden was dann eventuell durch Texturen machbar wäre. Aber man bräuchte keine Texturen mehr um Strukturen zu simulieren (Unebenheiten in Wänden, Borke usw.)
Was das modellieren von Hand angeht, da könnte man mit sehr hohen Polygonmengen arbeiten. Die Grafiker sind das modellieren damit gewöhnt und wären nur noch durch die Leistungsfähigkeit ihres eigenen Rechners bei der Polygonanzahl beschränkt. Hinterher kann man das Ultrahightpolymodell ;) dann in eine Point Cloud umwandeln.
Mir erscheint plausibel, dass sie eventuell einen innovativen und enorm schnellen weg gefunden haben aus einer unglaublichen Menge an Punkten diejenigen herauszusuchen, die bei der Berechnung des anzuzeigenden Bildes relevant sind. Dies betrifft aber nur die Performence bei der Darstellung.
Nur sagt mir mein Hausverstand, dass diese unglaubliche Menge an Pixeln Speicherplatz benötigt. Selbst wenn sie es schaffen die Pixelinformationen, die im RAM gehalten werden intelligent zu begrenzen, so dass sie irgendwie damit auskommen um die Grafik zu berechnen und noch die Pixel bereit zu halten, die wahrscheinlich in den nächsten Bildern gebraucht werden, so müssen auch alle Informationen über alle gerade nicht benötigten Pixel des gesamten Progamms/Spiels irgendwo hinterlegt werden. Also x, y, z, Farbe, Transparenz, Reflexionswert. für jeden einzelnen Punkt.
Dies bringt mich zu der Befürchtung, dass ich zwar keine high-end Grafikkarte mehr brauche, um zu spielen, aber das Game dann nicht auf 2 DVDs sondern auf 30-40 Festplatten ausgeliefert wird. -
Diskutiere mit und stelle Fragen: Jetzt kostenlos anmelden!
lima-city: Gratis werbefreier Webspace für deine eigene Homepage