Zum Inhalt springen


Roger's - Multi Media Blog


12. Januar 2017

Augenkontakt

Vor kurzem bin ich auf dieses Video aufmerksam geworden:

Mir gefällt der Clip sehr, denn als „Digital Native“ oder besser „Digital Prehistoric“ kommen Erinnerungen auf…

Es scheint, dass Eye-Tracking nun in der Unterhaltungselektronik angekommen ist.

Bis jetzt war Eye-Tracking ein Gebiet für professionelle Analysen aller Art in Wissenschaft und Marktwirtschaft, wie z.B. Eye Tracking Kompetenzzentrum Schweiz zeigt. Übrigens: Ganz neu gibt’s den Eye-Tracker auch in Mini-Ausführung.

 

20. Juli 2016

Vollmond

Diese Woche habe ich zu meiner Olympus OM-D E-M10 das 75-300m Objektiv erhalten. Beim gestrigen Vollmond musste ich das Objektiv selbstverständlich testen.

Vollmond

Da ich kein Stativ zur Hand hatte, wurde das erste Bild, wie erwartet, nicht berauschend. Vor allem wenn man meine Aufnahme des Weihnachtsvollmond vergleicht. Allerdings bietet die Olympus E-M10 die Möglichkeit eine Belichtungsreihe aufzunehmen. Hier das Resultat bei dem die Blende und die Verschlusszeit variiert wurden.

Belichtungsreihe

Diese, auf den Ausschnitt Mond reduzierten, Bilder bildeten die Eingangsdaten für das Tool Fitswork. Mit Hilfe der Batch-Verarbeitung habe ich die fünf Bilder addiert und dabei dieses Resultat erhalten.

Vollmond als TIFF

Ein TIFF Bild mit 16Bit Farbkanälen. In diesem Bild steckt mehr Information, als man sieht. Diese sehr gute Anleitung zeigt, wie man mit Photoshop das Bild schärfen kann. Zusätzlich habe ich die Bilder noch entsättigt, quasi die Erdatmosphäre etwas gefiltert. Links das Resultat mit Photoshop, rechts mit Gimp.

Vollmond mit Photoshop bearbeitetVollmond mit Gimp bearbeitet

Übrigens, das Gimp Bild wurde mit der Entwicklungsversion 2.9.4 gemacht.  Die Korrektur „Tiefen/Lichter“, wie in PS, gibt es da nicht. Aber neu „Belichtung“. Das Resultat ist etwas flau, aber das wird mit der nächsten Version sicher besser. Die Störungen am Südpol des Mondes haben mit dem Flimmern der Erdatmosphäre und mit dem fehlenden Stativ zu tun.

Beim nächsten Vollmond leihe ich ein Stativ aus 🙂

30. Dezember 2015

VertiGo

Nein, nicht der Film von Alfred Hitchcock aus dem Jahr 1958 mit James Stewart und Kim Novak ist hier gemeint, sondern das hier:

VertiGo ein Roboter

ETH Studenten haben mit den Disney Research Zürich zusammen im Focus-Projekt VertiGo einen Roboter entwickelt, der mit Hilfe von zwei verstellbare Rotoren einen solchen Druck erzeugt, um auf allen horizontalen und vertikalen Ebenen fahren zu können.

Eine spannende neue Möglichkeit, statt dem ewig neuen Multicopter-Mini-Kamera-Drohnen Gedöns oder dem Angriff der „Drohnenkrieger“.

 

15. Dezember 2015

Noch kein Weihnachtsgeschenk?

Kein Problem – falls Sie einen 3D-Drucker haben. Thingiverse hat einige coole Vorschläge, was man sich noch schnell ausdrucken kann.

Mein Favorit ist die Digital Sundial – eine „digitale“ Sonnenuhr.

Digital Sundial

Ebenfalls originell und praktisch ist der Tower of PI – ein Bleistifthalter.

Tower of PI

Fehlt eine helfende Hand? Drucken Sie sich ein EEZYbotARM – der Greifarm benötigt noch eine Arduino-Steuereinheit und ein paar Servo-Motoren. Fertig!

EEZYbotARM

Fröhliche und unterhaltsame Weihnachten!

 

12. Oktober 2015

Processing 3.0

Seit dem 30. September gibt es nun Processing in der Version 3.0.

processing3-logo

Processing 3 hat einen neuen Code-Editor mit einem verbesserten Interface, bessere Fehlerprüfung, und einen integrierten Debugger. Processing 3 ist schneller bei der Verarbeitung von OpenGL (P2D und P3D) und besitzt neue Funktionen für hochauflösende Bildschirme, Vollbild-Sketches sowie die Ansteuerung von mehreren Bildschirmen. Dan Shiffman erklärt und zeigt die Neuheiten von Processing 3, in der von ihm gewohnten fröhlichen Art.

DanShiffmanP3

Ach ja, einen Debugger gibt’s jetzt auch!

DanShiffmanP3_Debug

Es lässt sich jetzt schöner Programmieren. Übrigens neu auch auf dem Raspberry Pi.

29. Juli 2015

Lytro Illum

Seit Ostern bin ich Besitzer einer Lytro Illum. Es wird Zeit über die ersten Erfahrungen zu schreiben.

Lytro Illum

Das erste, das auffällt: Sehr viel Zubehör (Streulichtblende, ND-Filter, Mikrofasertuch für den Touchscreen, etc.) alles einzeln verpackt, aber kein Handbuch. Video-Tutorials sind angesagt und seit Anfang Juli gibt es ein PDF-Manual 2.0, das auch Manual nennen darf.

Die Lytro Illum ist eine plenoptische Kamera, auch Lichtfeldkamera genannt, und erfasst das 4-D-Lichtfeld eines Motivs. Damit kann man Aufnahmen mit einem Perspective Shift („anfokussieren“) machen. Aber einfach draufhalten und abdrücken, funktioniert mit dieser Kamera gar nicht. Das Motiv muss gut ausgewählt sein. Eines meiner ersten Bilder war das hier:

Betreten verboten

Das Bild stammt übrigens von einer Bushaltestelle.

Bushalt

Ja, das ist eine Bushaltestelle. Ein Künstlerkollektiv aus der ganzen Welt hat in Vorarlberg das Projekt BUS:STOP umgesetzt.

Ich gebe allerdings zu, das Bild war ein glücklicher Zufall. Es muss nämlich mehrere Ebenen aufweisen, welche die Kamera auch erkennt. Mit der Desktop Applikation lassen sich auch Animationen machen, wie die hier:

Statue

Nicht zuletzt lassen sich mit der Lytro Illum auch kleine Photo Parallaxe erstellen. Es erscheint der Eindruck, man könne hinter das Motiv schauen.

Stillleben

Etwas spezielles ist auch die Wi-Fi-Connection zu iOS-Geräten. Mit der iOS App kann man auf Reisen direkt die Bilder in einem angenehmen Format betrachten und bearbeiten, wenn auch nicht so intensiv, wie mit der Desktop Applikation. Nur auf dem eigenem Blog kann man das Anfokussieren nicht selbst umsetzen, dazu wird ein Gratis Account bei Lytro benötigt.

Blumen in Bern

Für kreative fotografische Gemüter oder professionelle Bildgestalter fürs Web ist die Lytro Illum als Zweitkamera einen Versuch wert und mehr als bloss ein Spielzeug. Eine „normale“ Kamera kann sie aber nicht ersetzen.

 

27. Juni 2015

Geblitzdingst

Es ist ein tolles Gerät der Rasberry Pi 2.  Aber es ist kamerascheu!

xenongate

Wird der Raspi 2 mit einem Xenon-Blitz fotografiert, schaltet sich der Kleinstrechner sofort ab. Das Ganze funktioniert auch mit einem Laserpointer. Der Grund dafür ist die Onboard-Spannungsversorgung, bzw. das Bauelement U16.

Raspberry PI 2 U16

Da dem U16-Chip aus Kostengründen kein Gehäuse spendiert wurde, bringt die hohe Lichtmenge die Spannungsregelung aus dem Takt. Mit etwas „Blu-Tack“, einem Knetmasse-ähnlichen Klebstoff, behebt man diesen Fehler leicht.

Der Roboter B15 aus der Microsoft Entwicklerkonferenz „Build“ in San Francisco hat als Basis auch einen Raspberry PI 2. Ob er auch Geblitzdingst wurde?!?

30. April 2015

Virtuelle Kameraden

Microsoft hat am Mittwochabend seine alljährliche Entwicklerkonferenz „Build“ in San Francisco gestartet. Während der Keynote wurden einige Funktionen der HoloLens präsentiert, darunter ein virtueller Roboter namens B15, der mit einem echten, Raspberry Pi getriebenem Roboter kommunizieren konnte. Der „echte“ Roboter liess sich über virtuelle Knöpfe am B15 steuern. Diese wurden ins Sichtfeld des Brillenträgers eingeblendet.

HoloLens_B15

Unser Leben wird in Zukunft noch etwas virtueller: Im Wohnzimmer projiziert HoloLens auf Wunsch virtuelle Bildschirme mit variabler Grösse an die Wand oder stellt sie auf den Tisch. Ausserdem kann sich der HoloLens-Besitzer auch einen virtuellen Kameraden zulegen, in der Präsentation war es ein Hund, der dem HoloLens-Mastermind Daren ebenso artig folgte wie die virtuellen Bildschirme.

HoloLens_B15_2

Man muss in Zukunft keine Einrichtung mehr für seine Wohnung kaufen 🙂 Schöne neue Welt.

 

21. Januar 2015

HoloLens

Eigentlich wollte Microsoft die neuen Features von Windows 10 vorstellen. Grössere Aufmerksamkeit erhielt jedoch das hier:

Microsoft HoloLens

HoloLens soll ein geringes Gewicht besitzen, ohne jegliche Kabel auskommen und bietet einen 3D-Sound, der für die Orientierung in der 3D-Holowelt genutzt wird – na, da sind wir mal gespannt.

Apropos Augmented Reality und Wohnzimmer – da war doch schon mal was? Ja, das hier…

17. Mai 2014

Blender – Video Editing

Bei diesem Titel denkt man im ersten Moment – Blender? – ist doch eine 3D-Grafiksoftware. Ja, aber Blender enthält ein einfaches und funktionales Videoschnittprogramm, welches den ressourcensparenden Umgang mit großen Dateien erlaubt. Ist Blender nicht schwer zu handhaben? Nicht wenn man sich erst die ultrakurzen Videotutorials von c’t anschaut.

Blender VSE

Aber ein wirklich gutes Videotutorial hat Paul Caggegi aus Sydney produziert. Er geht nicht nur auf die Handhabung des Video Sequence Editor (VSE) ein, sondern erklärt auch wie man ein Videoschnitt Projekt angeht. Und das in 20 Minuten – ausgezeichnet!

BlenderScreenShot

Gut, er muss es wissen, schliesslich ist er seit Jahren als freier motion-graphics-artist und video-editor & 3D-effects-creator für Film und Fernsehen tätig. Sein Showreel von 2013 zeigt, was er so alles macht. Hier noch eine Fortsetzung…

Blender_NLE

Wer lieber etwas zum Lesen haben möchte, kann sich dieses Tutorial anschauen:

Blender3D_vse

Übrigens: ab der Version 2.70 wir auch an der Vereinfachung der Bedienungsoberfläche gearbeitet. Aber Gut-Ding will Weile haben.