1 registered members (AndrewAMD),
1,298
guests, and 2
spiders. |
Key:
Admin,
Global Mod,
Mod
|
|
|
Re: Merkfähigkeit
[Re: Slin]
#391873
01/16/12 17:44
01/16/12 17:44
|
Joined: Dec 2002
Posts: 3,363 Vindobona (Ostarichi)
Harry Potter
Expert
|
Expert
Joined: Dec 2002
Posts: 3,363
Vindobona (Ostarichi)
|
@Rondidon: Wie Du anhand von "Pax et Bellum" sehen kannst, braucht man keine Shader für eine gute Grafik. ![wink wink](/ubb7/images/graemlins/default_dark/wink.gif) Selbst du brauchst inzwischen shader, du merkst davon nur nichts, weil dass alles automatisch passiert... Nein, ICH brauche KEINE Shader! ![grin grin](/ubb7/images/graemlins/default_dark/grin.gif) Ernsthaft, ich arbeite meistens noch mit der A6, weil ich den WED von der A8 angenehmer empfinde. Und die Grafik sieht dort genauso aus wie in der A8. Vor allem in der Leveldesign-Phase arbeite ich noch mit der A6. Danach übernehme ich es dann in die A8, weil man dort vom Coding her mehr Möglichkeiten hat. Und weil ich ja doch, zugegeben, den einen oder anderen Shader einsetzen werde. ![wink wink](/ubb7/images/graemlins/default_dark/wink.gif) Habe zum Beispiel letzte Nacht mit Wasser herumexperimentiert. Und eine Spiegelung im Wasser sieht nunmal mit Verzerrung (durch die Wellen) besser aus, als eine Spiegelung ohne Verzerrung und ohne Shader. Vor allem wenn ich meine bisherige Technik (Wasser in mehreren semi-transparenten Schichten) mit einem Shader (für die Spiegelung mit Verzerrung) kombiniere, sieht das bombastisch aus. Ich muss die Texturen für die Wasser-Schichten noch überarbeiten, aber wenn das fertig ist, zeige ich mal ein Video davon her. Ich war gestern jedenfalls voll begeistert von meinem neuen Wasser. Das sieht so realistisch aus, dass ich es am liebsten trinken wollte. ![wink wink](/ubb7/images/graemlins/default_dark/wink.gif) ich hab übrigens bei ersten versuch level 3 geschafft Wow! Das schafft nicht jeder! ![grin grin](/ubb7/images/graemlins/default_dark/grin.gif)
|
|
|
Re: Merkfähigkeit
[Re: Damocles_]
#391878
01/16/12 18:24
01/16/12 18:24
|
Joined: Aug 2002
Posts: 2,183 Germany, BaW�
Rondidon
Expert
|
Expert
Joined: Aug 2002
Posts: 2,183
Germany, BaW�
|
Mäh, also ist die Welt doch nur ein 240p Youtube-Video. Außer in der Mitte. So ein Mist. Stimmt aber wirklich. Ich mache gerade Versuche Buchrücken in meinem Bücherregal zu lesen, obwohl ich das Buch nebenan anschaue. Ist sehr schwierig. Zwei Bücher daneben geht es gar nicht mehr. @Thomas: Veröffentliche das Wasser doch als Contribution. Wenns wirklich so gut aussieht, hätten viele dafür ne Verwendung (ich zum Beispiel ![tongue tongue](/ubb7/images/graemlins/default_dark/tongue1.gif) ) ![laugh laugh](/ubb7/images/graemlins/default_dark/laugh.gif) Achja da fällt mir gerade was ein: Wie machst du das eigentlich mit dem Himmel? Ist der bei dir dynamisch? Weil ich mir gerade überlege, sowas in mein Projekt einzubauen.
|
|
|
Re: Merkfähigkeit
[Re: Rondidon]
#391879
01/16/12 18:33
01/16/12 18:33
|
Joined: Dec 2002
Posts: 3,363 Vindobona (Ostarichi)
Harry Potter
Expert
|
Expert
Joined: Dec 2002
Posts: 3,363
Vindobona (Ostarichi)
|
Google verrät: Das menschliche Gesichtsfeld ist etwa 180 Grad mal 130 Grad. Die Auflösung des menschlichen Auges hat aber nichts mit dem Gesichtsfeld zu tun. Sie hängt einzig und allein davon ab, wieviele Sehzellen ( Fotorezeptoren) Du auf Deiner Netzhaut hast. Es gibt zwei Arten von Sehzellen für die Bilderkennung: 1.) Die Stäbchen: sie dienen nur dazu, um hell/dunkel erkennen zu können. Sie sind lichtempfindlicher als die Zapfen. Der Mensch hat ca. 120 bis 130 Millionen Stäbchen. 2.) Die Zapfen: diese dienen für die Farberkennung. Der Mensch hat davon nur ca. 6 Millionen. Also jeder "Farbpixel", ist sozusagen zusätzlich noch in ca. 21 Helligkeits-Pixel unterteilt. Man könnte also sagen, dass wir Farben nur mit 6 Megapixel wahrnehmen können, Graustufen jedoch mit 120 bis 130 Megapixel. Aber das Bild, das wir sehen, ist genaugenommen gar nicht das Bild, das unsere Augen (Sehzellen) wahrnehmen. Sondern es wird erst im Gehirn sozusagen "vorberechnet". Wir sehen nie die Realität, so wie sie momentan ist, sondern ein Bild, von dem unser Gehirn annimmt, das es der momentanen Realität entspricht. Das Gehirn täuscht uns eigentlich ständig ein Bild vor, weil es die ECHTEN Bildinformationen noch gar nicht erhalten hat (die Bildinformationen brauchen fast eine halbe Sekunde, um von den Augen zum Gehirn zu gelangen). Deshalb kommt es manchmal auch vor, dass sich unser Gehirn irrt. Dann kann es passieren, dass wir beim Autofahren einen Baumstamm am Straßenrand kurz für ein Kind halten. Oder wenn eine Computeranimation von einem fahrenden Auto dieses Auto abrupt anhalten lässt (von 100 km/h auf 0 km/h innerhalb einer tausendstel Sekunde), dann sehen wir trotzdem für den Bruchteil einer Sekunde dieses Auto noch weiterfahren. Weil das Gehirn eben davon ausgeht, dass in der Realität kein Auto so schnell stehenbleiben kann. Wir sehen eigentlich ständig ein künstlich berechnetes Bild, das aus inzwischen schon veralteten Informationen berechnet wird. Genauso wie die Bilder, die wir in unseren Träumen sehen, wenn die Augen gar nicht aktiv sind. Und dieses Bild, das wir da sehen, ist nicht auf Pixel aufgebaut. Wir nehmen ja auch immer nur einen kleinen Prozentsatz unseres Blickfeldes BEWUSST wahr, weil das Gehirn gar nicht in der Lage ist, ALLE Informationen von den Sinnesorganen zu verarbeiten. Das Gehirn muss filtern, um mit der gigantischen Datenmenge mithalten zu können. Das ist übrigens auch der Grund, warum wir z.B. beim Hören von Musik "träumen". Also in unserer Phantasie ein Bild sehen, das nicht der momentanen Realität entspricht. Das passiert dadurch, weil das Gehirn den Daten aus den Ohren Vorrang gibt, und die Bildinformationen aus den Augen größtenteils weg-filtert. Und ohne diese realen Bildinformationen, zeigt uns das Gehirn dann ein Traum-Bild. Umgekehrt, wenn wir uns beim Autofahren dann plötzlich auf den Verkehr konzentrieren müssen (das Gehirn also möglichst viele Informationen aus den Augen benötigt), dann wird das Hören der Musik sozusagen ausgeblendet. Wir hören die Musik dann nur noch dumpf im Hintergrund, und nehmen sie nicht mehr bewusst wahr.
|
|
|
Re: Merkfähigkeit
[Re: Lukas]
#391883
01/16/12 18:53
01/16/12 18:53
|
Joined: Apr 2005
Posts: 3,076 Germany, NRW
rvL_eXile
![](/ubb7/images/groups/mod.gif)
3D Artist
|
![](/ubb7/images/groups/mod.gif)
3D Artist
Joined: Apr 2005
Posts: 3,076
Germany, NRW
|
Das mit der Musik kann ich bestätigen, wenn ich hier beispielsweise konzentriert am Modelieren bin dann verschwindet die Musik einfach aus dem Hintergrund. Ob das jetzt wegen der Augen ist oder einfach nur weil ich mich auf eine Sache konzentriere, kann ich natürlich nicht sagen...
Gruß Sebastian
Tutorials: [Blender]Terrain creation ENG/GER [Blender]Low Poly Tree Modeling [GIMP]Create a Texture for Terrains CLICK HERE
|
|
|
Re: Merkfähigkeit
[Re: Lukas]
#391884
01/16/12 18:54
01/16/12 18:54
|
Joined: Aug 2002
Posts: 2,183 Germany, BaW�
Rondidon
Expert
|
Expert
Joined: Aug 2002
Posts: 2,183
Germany, BaW�
|
Als Schrecksekunde wird die durchschnittliche Reaktionszeit des Menschen auf ein überraschendes Ereignis bezeichnet, das eine angemessene Reaktion erfordert.
Im Durchschnitt liegt sie im Straßenverkehr tatsächlich bei rund einer Sekunde, wenn z. B. bei einem Wildwechsel in der Nacht ein Reh auf die Straße springt.
Die Reaktionszeit erhöht sich bei Übermüdung, Unaufmerksamkeit oder bei Alkoholkonsum bis etwa zum Doppelten, sie kann durch geistige Vorbereitung, Bremsbereitschaft und ähnliches verringert werden.
Bei erwarteten Ereignissen – wie der Beobachtung eines Sterndurchgangs durch ein Fadennetz oder im Kampfsport – kann sie je nach Typ und momentaner Verfassung auf 0,4 bis 0,1 Sekunden herabgedrückt werden.
Definiere erwartetes Ergebnisse "nach Typ". Ich denke die 0,4 wird dann so ein Farbbeispiel sein. Also hätte Thomas recht. Das mit der Musik kann ich beim konzentrierten Arbeiten nicht. Ich komme dann durcheinander. Oder Extrembeispiel: Wenn ich zum Beispiel Podcasts höre und nebenher zum Programmieren anfange, bringe ich nichtmal einfachste Sachen zustande ohne den Podcast zu ignorieren. Ich kenne aber diverse Mädels, bei denen das geht. Ich denke das Multitasking-Problem liegt am männlichen Gehirn. Das mit der Übermüdung kann ich bestätigen. Ich bin vor ein paar Jahren mit dem Fahrrad von einer Feier nach Hause gefahren und hab es unterwegs geschafft bergab eine Katze anzufahren und mich mit dem Fahrrad hinzulegen ![grin grin](/ubb7/images/graemlins/default_dark/grin.gif) . Beidseitig nix passiert, aber mittags wäre das wohl nicht passiert. Aber das liegt wahrscheinlich auch am männlichen Gehirn ![tongue tongue](/ubb7/images/graemlins/default_dark/tongue1.gif) .
|
|
|
Re: Merkfähigkeit
[Re: Rondidon]
#391888
01/16/12 19:16
01/16/12 19:16
|
Joined: Dec 2002
Posts: 3,363 Vindobona (Ostarichi)
Harry Potter
Expert
|
Expert
Joined: Dec 2002
Posts: 3,363
Vindobona (Ostarichi)
|
@Thomas: Veröffentliche das Wasser doch als Contribution. Wenns wirklich so gut aussieht, hätten viele dafür ne Verwendung (ich zum Beispiel ![tongue tongue](/ubb7/images/graemlins/default_dark/tongue1.gif) ) Nein, DU hättest dafür keine Verwendung. Weil das Wasser, an dem ich gerade arbeite, ist im Durchschnitt ca. 10 bis 30 cm tief. Da würden Deine Schiffe auf Grund laufen. ![grin grin](/ubb7/images/graemlins/default_dark/grin.gif) Aber ich werde Dir, wenn es fertig ist, eine Demo schicken, damit Du Dir nach der selben Methode Dein eigenes Wasser machen kannst. So funktioniert es: Das Wasser besteht aus verschiedenen Schichten, also aus verschiedenen Polygon-Ebenen, mit jeweils einer halbtransparenten TGA-Textur. Die unterste Schicht ist jedoch nicht transparent, sondern auf ihr liegt der Spiegel-Shader. Darüber liegt eine Schicht mit der Boden-Textur vom Grund des Gewässers. Diese Schicht ist teilweise transparent, damit man den Spiegel-Boden hindurchscheinen sieht. Je tiefer das Wasser an einer bestimmten Stelle ist, desto transparenter ist auch die Boden-Textur. Bei sehr tiefen Stellen sieht man den Boden dann gar nicht mehr. Am Ufer ist er jedoch sehr gut sichtbar. Jede Schicht ist übrigens auch 3-dimensional ausmodelliert. Also große Steine am Boden des Gewässers sind auch 3-dimensional hervorgehoben. Und dann gibt es noch die obsterste Schicht, sozusagen die Wasseroberfläche. In dieser Textur gibt es auch z.B. Steine, die aus dem Wasser herausragen, oder Wasserpflanzen an der Wasseroberfläche. Diese herausragenden Teile der Textur sind gar nicht transparent (sodass man weder Boden noch Spiegelung hindurch sieht). Überall da, wo Wasseroberfläche ist, ist die Textur jedoch teilweise transparent, sodass man sowohl den Boden als auch die Spiegelung hindurch sieht. Als letzte Schicht wird es dann noch eine animierte Wasserströmungs-Schicht geben - genaugenommen sehr viele kleine endlos animierte Strömungs-"Sprites", die sehr stark transparent sind, sodass man nur ein paar Wellen von der Strömung sieht. Eventuell kommen dann später noch animierte Treibgut-Models hinzu (kleine Äste, oder Algen, oder ähnliches), die den gesamten Bach/Fluss entlang treiben, sodass man nicht das Gefühl hat, dass die Strömung nur eine kurze Endlos-Animation ist, sondern dass da wirklich etwas über mehrere Minuten lang langsam den Fluss hinunter treibt. Wichtig für diese Wasserschichten-Models ist übrigens, dass der Mittelpunkt des Models sehr tief liegt. Ich erreiche das, indem ich ein einziges Polyon sehr tief nach unten setze. Dadurch kommt es dann zu keinen Clipping-/Sortier-Fehlern zwischen der großen Wasseroberfläche und z.B. halbtransparenten Pflanzen am Ufer. Dadurch dass der Mittelpunkt des Wasser-Models sehr tief liegt, ist er immer weiter entfernt als der von den anderen Models. Das Wasser wird dadurch dann immer im Hintergrund gerendert, und kann niemals z.B. einen Baum am Ufer überlagern. Achja da fällt mir gerade was ein: Wie machst du das eigentlich mit dem Himmel? Ist der bei dir dynamisch? Weil ich mir gerade überlege, sowas in mein Projekt einzubauen. Momentan ist er bei mir noch nicht dynamisch. Ich verwende einfach eine Himmels-Kuppel (ein Model einer Kuppel, mit nach innen gerichteten Normalen). Die Textur vom Himmel ist dabei horizontal gekachelt, um Texturspeicher zu sparen. Diese Kuppel dreht sich ganz langsam, sodass man bei den Wolken im Hintergrund den Eindruck bekommt, dass sie sich bewegen. Zusätzlich verwende ich noch Wolken-"Sprites" (wenn ich von "Sprites" spreche, dann meine ich eigentlich flache Models aus 2 Polygonen). Diese ziehen dann unter der Himmelskuppel langsam über den Himmel, und werden am Horizont immer transparenter, bis sie verschwinden, und an einer anderen Stelle wieder auftauchen und erneut über den Himmel ziehen. Wenn sich so eine Wolke vor die Sonne schiebt, reduziere ich die Helligkeit von allen Models im Level (ausgenommen Himmel - der bleibt immer gleich hell). Sieht ziemlich cool aus, wenn es plötzlich einen Schatten gibt, weil die Sonne verdeckt ist. Also eigentlich ist mein Himmel momentan halb-dynamisch. Er bewegt sich zwar, aber es gibt momentan noch keinen Übergang von Schönwetter zu Schlechtwetter, oder Sonnenuntergang oder ähnliches.
|
|
|
|