Blog Post 8 – Sora

Alright it’s over. We’ve figured out video AI. Those were essentially my first thoughts when I first saw OpenAI’s newest development, Sora: their impressive own generative video AI. The diffusion transformer model is capable of generating up to a minute of fullHD video based on text prompts, and/or input images and videos, even being able to merge/transition between two input videos, though it does seem to alter the given videos quite drastically.

Strengths

Most examples show realistic styles but the model also seems to be capable of stylised 3D and 2D video and still generations. But the focus seems to be especially on realistic generations, many of which are essentially flawless.

Text to Image

Prompt: A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.

As seen here, the model has exceptional understanding of 3D space, geometry, human anatomy as well as lighting and, perhaps most impressively, reflections. It’s not perfect, of course, but considering this is the worst the model will ever perform, I’d say we aren’t far from it.

In this example, the model shows excellent understandings of the chameleon’s anatomy and motion as well as the camera’s optics and overall geometric consistency. Again, it’s not perfect, but it is still incredibly impressive.

Prompt: This close-up shot of a chameleon showcases its striking color changing capabilities. The background is blurred, drawing attention to the animal’s striking appearance.

Image to Video

Here we see Sora’s first stylised performance, using an image generated by DALL-E 2 or DALL-E 3, which of the two was used for this particular image was not disclosed.

The model shows appropriate understanding of how 2D characters like these are often animated, but the result is rougher than the more realistic approaches, showing weird motion and morphing of body parts. It is also the only 2D example they gave, which leaves me worrying a bit for my anime application.

Prompt: Monster Illustration in flat design style of a diverse family of monsters. The group includes a furry brown monster, a sleek black monster with antennas, a spotted green monster, and a tiny polka-dotted monster, all interacting in a playful environment.

Furthermore, OpenAI did not disclose whether the prompt was given to DALL-E 2, DALL-E 3 or Sora, so it is a bit difficult to judge the model’s performance.

Video to Video

Sora is capable of ingesting any video, be it “real” or AI-Generated and changing certain aspects of it. At the moment it looks like the AI only affects the entire frame, and changes aspects of the video the user does not specify to be changed. This behaviour reminds me a bit of ChatGPT failing to generate, say, a “room without an elephant in it”, but as I mentioned before – this version of Sora is the worst we will ever have.

The base video, its prompt not being given on disclosed.

As we can see, the AI changes the entire frame, completely changing the car and even altering the road slightly.

Prompt: change the setting to be a lush jungle

Here, even after specifically asking the AI to “Keep the video the same”, it is still making drastic changes in my opinion.

Prompt: keep the video the same but make it be winter

An intriguing feature is Sora’s ability to blend between two videos, creating creative transitions that show the model’s exceptional understandings of 3D space, and motion, but definitely also shows it struggling with scale.

Input video 1

Prompt undisclosed

Input video 2

Prompt undisclosed

Connected video.

Prompt undisclosed

As previously mentioned, the model finds creative ways to combine the videos and there are many more examples on OpenAI’s website which I have linked below, but it does get the scale pretty wrong. What I find impressive is that even though the input videos are being changed very drastically, the first frame of video 1 and the last frame of video 2 match perfectly with Sora’s stitched generation, meaning one could use shorter transitions and have original footage before after the transition with no hiccups.

Simulation

I’m not sure to call this a feature, as OpenAI seems to use the term ‘Simulation’ to show off the model’s understandings of 3D, object permeance and object interactions. But they also point out that Sora has a good understanding of virtual worlds and rulesets complete with its contents, objects and subjects, as can be seen here:

Prompt semi-disclosed: ‘captions mentioning “Minecraft.”’ as per OpenAI

OpenAI say that this development is promising in possible actual simulation applications of AI, not just Minecraft. But apart from the pig fading out of existence spontaneously it is very impressive; what surprises me the most is the consistency in the player HUD, sword and movement of the character through the virtual world. OpenAI claim that Sora is capable of “simultaneously controlling the player (…) while also rendering the world”, but don’t go in too much detail. I wonder how good Sora’s understanding of the virtual world actually is and how well it understands the user’s prompts.

Weaknesses

Apart from the familiar struggles with human anatomy, especially hands and fingers, the model does not seem to like physics very much, generating illogical motion when asked to produce things like explosions or destruction.

Prompt undisclosed

Some errors are more familiar, again, like objects or subjects popping in and out of existence and sometimes even merging with each other.

Prompt: Five gray wolf pups frolicking and chasing each other around a remote gravel road, surrounded by grass. The pups run and leap, chasing each other, and nipping at each other, playing.

And some errors are just pretty funny.

Prompt: Step-printing scene of a person running, cinematic film shot in 35mm.

Safety

In the name of safety, Sora is not yet available to the public, only being entrusted to a number of “red teamers”, a selection of experts in misinformation, hateful content and bias and will be testing the model before it is released. OpenAI will naturally apply similar text classification processes that it is already using for DALL-E and ChatGPT to reject text input that features likenesses, intellectual property or sexual content. Additionally, before a video is presented to the user, Sora checks every frame of generated content for potentially violating results. OpenAI is also focussing on developing methods to detect whether content is AI-Generated or not and directly embedding robust metadata into any generations by Sora.

Thoughts

WELL. Given that the technology of Text to Video AI is only about a year old, this obviously shows just how fast things are moving at the moment, and therefore also underlines the potentially short significance of my master’s thesis. Anime AI generation seems to be a very, very niche application, so I have that going for me, which is nice, but the development is crazy fast, moving from horrifying AI generated video that are obviously unusable and only a technical showcase of what could be possible to nearly flawless results within one year.

Prompt: Will Smith eating Spaghetti (March 2023, Stable Diffusion)

I still think that my thesis will have its own value, especially if I focus on comparing traditional with AI-assisted methods and also talk about the creative aspect of the whole media design process. And new developments are seldom bad – let’s hope that these developments are also beneficial for me.

Links:

https://openai.com/sora

https://openai.com/research/video-generation-models-as-world-simulators

https://www.youtube.com/watch?v=NXpdyAWLDas

Blog Post 7 – Restructuring

After having spent some time off after a busy fifth semester it’s now time for me to take the whole master’s thesis thing seriously. 2024, albeit mostly filled with meeting deadlines for our short movie and the exhibition, already presented me with two very interesting meetings, one with Roman Pürcher, followed closely with a meeting with Ursula Lagger.

Both meetings gave me valuable input on my thesis and I’ve more or less summarised them in my last blog post so I won’t go into detail here. Coming back after my time off and looking at the state of my thesis, I noticed that my exposé, even the revised one from early January, was very outdated and confused about the focus of the thesis, especially its preliminary structure.

This is what I want to update today – I want to restructure everything based on my last two meetings, my last blog post and what I really want to create and say with the thesis. Following that, I want to do a quick literature research to see what I can find about which topic and maybe adjust the structure accordingly.

Revised structure as of 17.02.24

  1. Introduction
    1. 1.1. Applications of AI in graphic and motion design
    2. 1.2. Introduction to Generative Models
  1. Methodology
    1. 2.1.Creative Methodology & Storytelling
      1. 2.1.1. Examples with a focus on Anime and Manga
        1. 2.1.1.1. Traditional
        2. 2.1.1.2. AI-Assisted
      2. 2.1.2. My approach
    2. 2.2.Technical Methodology
      1. 2.2.1. Examples
        1. 2.2.1.1. Traditional
        2. 2.2.1.2. AI-Assisted
      2. 2.2.2. My approach
  1. Practical Implementation: Short Anime Movie
    1. 3.1. Preproduction
      1. 3.1.1. Concept
      2. 3.1.2. Script
      3. 3.1.3. Storyboard
    2. 3.2. Production
      1. 3.2.1. Text-To-Image
      2. 3.2.2. AI-Animation
    3. 3.3. Post Production
      1. 3.3.1. Editing
      2. 3.3.2. Sound Design
  1. Results and Discussion
    1. 4.1. Analysis of the Short Anime Movie
    2. 4.2. Comparisons to aforementioned Examples
      1. 4.2.1. Technically
      2. 4.2.2. Creatively
    3. 4.3. Potential Impacts of AI on the Creative Industry (?)
  1. Conclusion
  1. Bibliography
  1. Appendix, Images and Interviews

Thoughts

I feel like this structure is much more streamlined and feels more focused. However, I could not find a way to comfortably and purposefully work in my proposed theoretical part on paradigm shifts in the past vs. now, since I believe that is what we are experiencing with AI at the moment. I feel like I could write an entire paper about just that but that would probably mean omitting a practical part and would essentially be a cultural / historical paper which is not what my master is about.

So what do I include? Speculation about AI in the creative industries? Maybe; nobody can prove me wrong there and I’m sure I will be able to use my experiences and findings to make some claims. However, Ursula Lagger has also stated that a speculative section necessitates a proper historical and cultural part to back my claims up, which is missing the point again.

It looks like the theoretical approach will focus more on the comparisons I will draw between traditional anime production as well as other contemporary AI-assisted approaches and my own work. Again, this feels like a much more streamlined direction for the paper and more appropriate for my master’s thesis. I hope I can find enough literature for this part, too. Unlike my bachelor’s thesis, I want to focus more on the creative process rather than the technical part, but that will have to be included in some capacity too, I guess I’ll see. 

I also spoke to Ursula Lagger about potential expert interviews and she suggested conducting one with a futurologist to get more insight on the current developments of AI with someone who has a good understanding of the past, but now that seems inappropriate. I think it would be much more valuable to interview a contemporary artist that uses AI in a similar way to me, ideally someone who also has traditional experience. I’ll see who I can find, I may want to go big on this one and try to shoot many big artists messages about email interviews, which are of course not as good as actual talks but are less work for the artists, which may increase my odds of one of them actually panning out.

All in all, while this structure is objectively better, I’m not sure if its theoretical and scientific contents are enough for a master’s thesis. But that’s something I can and will talk about with my supervisor. 

Sperm Whale Sound Production: How do the whales produce “farting” noises? What sound of whale have anything to do with speakers amplifier?

Baby whale is a size of the bus. When you look into anatomy of the whales you need to look on top of their head, because their nose is on the top of their head and they breathe through that. Not all of the whales have two nostrils. Dolphins (considered as a small whale) has only one nostril on the top of their head. The sound coming from the dolphin resembles farting. There is also a pulsed sound = echolocation (sonar). What they actually do is called echolocation, which is making these series of pulses and it uses it like a bat uses sonar (in case of bat radar, but underwater it’s sonar). So these animals use sonar to see its world in sound. Trying to understand how it works you have to look at it as f you were looking at the amplifier speakers of a sound system. The small-toothed whales are basically the “tweeters” and the sound is coming from that little nose that’s moving back and forth and coming put of their forehead. When you look at the big whales they are kind of like the “woofers”, the big speakers that you have in an amplifier system. Their sound is coming out of the throat.

The sound is modified in a junk organ. The final sound is incredibly loud. Sperm whale can click about 236 dB (human ear drums burst at 150 dB, our pain threshold 110 dB’s). It is considered by the loudest noise any animal can make. The males produce sound called – the clang, which a very, very loud, very intense sound. Sperm whales have many patterns of clicks that make up their complex language. The most common are:
– clicks used for longe-range echolocation, like sonar
– close range creaks when prey capture is coming
– “Codas” are distinct patterns of clicks most often heard when whales are socialising [sound of morse code]


– They can hear each other in the ocean from hundreds/ thousands miles away. Some researcher believes that they can keep in touch with each other through these clicks on other sides of the planet.
– The clicks are so powerful that can destroy human eardrum and vibrate human body to death. So hanging out with whales in the water is a bit sketchy
– They use clicks not only for ecosystem but also communication and their language might be more sophisticated than humans
– The sperm whale’s brain is six times a size of ours
– They also have a neocortex. In humans the neocortex is connected to carry higher functions like conscious thought, future planning and language. The sperm whale’s neocortex is six times the size of ours.
– They also have spindle cells (long and highly developed brain structures that neurologist associates with compassion, love, suffering and speech. Spindle cells make humans to be different from apes. Sperm whales have them in a far larger quantity than humans and had them for 15 million years longer than we have.

References:
1. https://anatomypubs.onlinelibrary.wiley.com/doi/epdf/10.1002/ar.20541
2. https://www.fisheries.noaa.gov/species/sperm-whale
3. https://www.orcaireland.org/deep-diving-adaptations-in-the-sperm-whale

Sound Artists

I discovered a few sound artists which helped me to understand a topic of noise pollution in the ocean:

1) Jana Winderen
“Hopefully I will leave less stuff on the planet when I leave”. She talks about bringing the experience,  instead of owning objects. The sounds are stressing us on a subconscious level. The sounds are poured into the water as well without knowing. 

Storytelling, layers, sections, travels.
First layer: describes larger areas with lower frequency and greater scope,
Another layer: going a bit closer
Third layer: focuses on deatails
Experience of swimming and being inside the water

Her research question stands: How does the composition of multichannel audio installations contribute to raising awareness of underwater noise pollution? What are the impacts on individuals experiencing these immersive sonic environments?

If humans beings are incensed by the cacophony of construction, lawn work and traffic, why would we suspect sea creatures to be any different? 

In her work “The art of listening: under water”, Winderen used sounds recorded in Atlantic Ocean, as well as from the Barents Sea and the Tropical Oceans.


https://janawinderen.bandcamp.com/album/the-blue-beyond


2) Manja Ristić – violinist, sound artist, curator and researcher 


In her opinion the noise pollution is the tip of the iceberg of the Anthropocene. The effect of underwater noise pollution is not only causing long-term damage to marine life, but to humans as well.
“If the frequency pattern of the noise is overlapping with the particular frequency range in which a certain species are communicating, they simply are not capable of finding each other anymore. They become vulnerable, unprotected, and with significantly less chance to breed. If the frequency pattern of the noise is overlapping with the hearing range that enables them to use biosonar, they get lost or disorientated, unable to avoid solid obstacles and follow the group they belong to. The noise is literally blinding them. If the frequency pattern of the noise is overlapping with their inherited “database” of sound-detecting predators they are constantly moving away from the potential danger, prioritising being safe over feeding.”

3) Leah Barclay – sound artist, interdisciplinary researcher (in field of sound, science and technology).

Joined the “Ocean Listening” research project, where she explored creative ways to use underwater sounds to highlight and bring the awareness of ocean health. The project looks at how sound can engage people and increase understanding of the importance of oceans.



References:
1. https://acloserlisten.com/2023/07/21/jana-winderen-the-blue-beyond/
2. https://15questions.net/interview/fifteen-questions-interview-manja-ristic/page-1/
3. https://leahbarclay.com/
4. https://oceans21.org/en/projects/seaphony/

Reflexion und Ausblick Einzelprojekt Smounds

Nach Erstellung des Prototyps kam ich zu der Erkenntnis, dass eine Fortführung des Projekts sinnvoll ist.
Die Arduino-Vernebler eigneten sich dazu, einen Proof of Concept zu liefern. Die Notwendigkeit, Basics im Arduino Coden zu erlangen, war sicherlich im Sinne eines Studierendenprojekts, da somit Wissenszuwachs generiert werden konnte. Um die Installation jedoch auf eine nächste stabilere Stufe zu heben, ist aktuell die Überlegung diese durch handelsübliche Duft-Vernebler zu ersetzen. Diese sind einfacher zu handhaben und effektiver in der Verneblung. Mit einer passenden Verkleidung kann auch die notwendige Ästhetik erreicht werden. Die Steuerung müsste dann jedoch auf anderem Wege geschehen. Dies scheint zunächst recht einfach, da ja bloß Strom an und aus notwendig ist, die Herausforderung besteht jedoch darin, die Kommunikation mit einem Soundplayer zu ermöglichen. Die grundsätzliche Funktion der besagten Geräte beruht ebenfalls auf Ultraschallmembranen, die Wasser vernebeln. Unterhalb der Membranen befindet sich ein kleiner Ventilator, der den Nebel nach oben durch eine kleine Öffnung über dem Wassertank leitet. Unten ein möglicherweise geeignetes Gerät:

Geplant ist, die Düfte innerhalb einer kleinen Kabine zu emitieren, eine gute Soundanlage soll ein entsprechendes Klangerlebnis erzeugen. Das Ziel ist, die weiterentwickelte Installation im Austellungskontext zugänglich zu machen.

Konstruktion Einzelprojekt Smounds

Nachdem Hardware und Software der Installation funktionierten, kam die Aufgabe eine praktische und (für einen Prototypen) einigermaßen ästhetische Montage zu konstruieren. Im Sinne der Nachhaltigkeit und Ökonomie griff ich ausschließlich auf Materialreste, die in der Werkstatt der FH Joaneum zu finden waren, zurück.

Als Basis dient eine Holzplatte. Auf einem am Brett verschraubten Steg ist die Elektronik der Vernebler befestigt, um diese auf eine passende Höhe zu heben. Auf einer kleinen “Bühne” stehen die beiden Wassergefäße, dazwischen ein Teil einer Löthilfe, durch deren Klammern ich die Vernebler in einer passenden Position fixieren kann (das ist notwendig, weil die Positionierung etwas aufwendig ist und ein kleines Verrutschen der Membranen bereits die Verneblung negativ beeinflusst).
Die “Als Basis dient eine Holzplatte. Auf einem am Brett verschraubten Steg ist die Elektronik der Vernebler befestigt, um diese auf eine passende Höhe zu heben. Auf einer kleinen “Bühne” stehen die beiden Wassergefäße, dazwischen ein Teil einer Löthilfe, durch deren Klammern ich die Vernebler in einer passenden Position fixieren kann (das ist notwendig, weil die Positionierung etwas aufwendig ist und ein kleines Verrutschen der Membranen bereits die Verneblung negativ beeinflusst). Die Bühne ist nicht fixiert, das erleichter die Positionierung der Membranen. Als Überbau dient eine Art Dach/Trichter. Die Basis ist aus Holz gefertigt und das Dach aus schwarzem Karton. Das Konstrukt ist ebenfalls nicht auf der Grundplatte befestigt, sondern wird einfach darauf gestellt. Dies dient einerseits der Erleichterung der Positionierung der Vernebler, da die Bewegungsfreiheit der Hände beim Ausrichten eingeschränkt wäre, und dem einfachen Transport. Grundplatte, Steg und Bühne sind jeweils mit schwarzem Papp verkleidet, das mit Sprühkleber befestigt ist. Um das Aufweichen der Verkleidung durch verschüttetes Wasser zu vermeiden, stehen die Glasschalen auf Metalluntersetzern.
Unten nun einige Fotos des Konstruktionsprozesses:

Abschließend noch ein kurzes Video der Installation in dunklen Lichtverhältnissen:

Code Einzelprojekt Smounds

Um gleichzeitig Gerüche und Sounds zu triggern entschied ich mich dafür, die Grove Vernebler über einen Arduino Code zu steuern (naheliegend in diesem Fall) und die Sounds über ein Pure Data Patch abzuspielen.

Der Arduino Code ist recht simpel: Digital Pins werden als Input definiert (Touchsensoren) Analog Pins als Output (Vernebler). Zusätzlich ist ein Delay implementiert, der die Länge der Aktivität der Vernebler steuert. “Serial.write” dient zur Kommunikation mit dem Pure Data Patch (siehe weiter unten).

Das Pure Data Patch dient dazu, die von mir produzierten Sounds randomisiert abzuspielen, sobald ein Duft aktiviert wird. Das Subpatch [playaudiofile~] dient dazu, die Soundfiles zu starten und zu stoppen. Über die Messages p_smound_negativ.wav (z.B.) wird der entsprechende Sound eingelesen. Wie oben erwähnt, musste ich einen Weg finden, den Input vom Arduino Board an das Pure Data Patch zu liefern. Hier erwies sich das Objekt [comport] als nützlich, das Daten des Usb-Ports empfangen kann. Wird ein Touch Sensor aktiviert, empfängt das Objekt den Wert “1”. Mit dem Objekt [sel 1] wird jedes Mal, wenn der Wert “1” empfangen wird ein [bang] Befehl gesendet, das in weiterer Folge das [random] Objekt triggert, welches wiederum einen zufälligen Zahlenwert zwischen 0 und 6 ausgibt. Um den Wert 0 zu vermeiden, wird zum Ergebnis 1 addiert. Anschließend kommt wieder das [sel] Objekt zum Einsatz und triggert die entsprechenden Soundfiles.

Hardware Smounds Einzelprojekt

Für mein Einzelprojekt habe ich einen kleinen “Apparat” gebaut, der gleichzeitig Sounds abspielen und Düfte in die Luft verdampfen kann. Die Idee war, angenehme/unangenehme Sounds mit “guten” und “schlechten” Gerüchen zu kombinieren um herauszufinden, ob sich hier Gegenwirkungen ergeben.

Der Sound wurde über ein Pure Data Patch auf einem Laptop laufend abgespielt (dazu mehr im nächsten Blogeintrag). Die Düfte über einen Ultraschallvernebler riechbar gemacht.

Als Vernebler kamen “Grove – Water Atomization-Kits” zum Einsatz. Das sind kleine Ultraschallmembranen, die durch eine sehr hohe Frequenz aus Wasser Nebel erzeugen. Die Vernebler sind mit Arduino Boards kompatibel und werden über einen Arduino Code gesteuert (siehe nächster Blogeintrag). Ebenfalls notwendig ist ein Touchsensor, mit dem die Verneblung aktiviert wird.

Symbolbild von Grove

Als Düfte kamen ätherische Öle und Parfümaromen zum Einsatz. Der gute Geruch war Zitrusfrucht, als schlechten Duft habe ich das Parfümaroma “Leder” herangezogen.

DIe Herausforderung war nun, geeignete Gefäße zu finden, in denen die Vernebler platziert werden und einen ausreichend starken Nebel erzeugen können. Nach eingen Experimenten fiel die Wahl auf flache Glassschalen, ähnlich Petrischalen. In den Schalen lagen dünne Küchenschwämme, so lagen die Vernebler stabil auf und der Wasserstand in den Gefäßen konnte so kontrolliert werden, dass ein gutes Ergebnis erzielt werden konnte.

Um eine Verneblung der Düfte in Richtung der/des Nutzer:in zu ermöglichen wurde eine Art Trichter gebaut, der das Austreten des Nebles nach hinten und seitlich verhindert. (Dazu mehr im übernächsten Blogeintrag betreffend Konstruktion).

Die Sounds bestanden aus monoten “schrillen” synthetischen Klängen und als Gegenpart aus angenehmen harmonischen, “friedvollen” Klangebenen.

Impuls: Field Recording Aufnahmen für Hörspiel „Gstätten”

Meine Expedition ins Herz der urbanen Wildnis von Graz, speziell in die Gegend von Gösting, war eine Reise, die die Essenz der “Gstätten”, verlassene urbane Brachflächen, durch Field Recordings einfangen sollte. Ausgestattet mit einem Zoom F3 Recorder und zwei Omni Elektret Mikrofonen von LOM, betrat ich eine Welt, die zugleich fremd und vertraut war. Die Dualität der Umgebung, wo das sanfte Flüstern der Natur vom konstanten Rauschen der nahen Stadt durchbrochen wird, bot eine faszinierende Klangkulisse. Diese Aufnahmen für ein Hörspiel zu machen, bedeutete, die verborgenen Geschichten und die Atmosphäre der “Gstätten” zu archivieren – eine klangliche Zeitkapsel eines Ortes im Wandel. Jedes Geräusch, von dem Rascheln trockener Blätter bis hin zum fernen Stimmengewirr, erzählte eine eigene Geschichte, die es wert ist, gehört zu werden.

DMX Lighting und ArtNet

In der Welt der Bühnenbeleuchtung und visuellen Gestaltung spielen DMX Lighting und ArtNet eine zentrale Rolle. Diese Technologien ermöglichen es Kreativen, komplexe Lichtshows mit Präzision und Flexibilität zu steuern. In diesem Beitrag werfen wir einen Blick auf die Grundlagen von DMX und ArtNet und teilen ein innovatives Setup, das die Möglichkeiten dieser Technologien voll ausschöpft.

Die Grundlagen von DMX

Digital Multiplex (DMX) ist ein Protokoll zur Steuerung von Beleuchtung und Effekten in der Unterhaltungsindustrie. Ein DMX-Signal besteht aus bis zu 512 Kanälen pro “Universe”, wobei jeder Kanal einen Aspekt der Beleuchtung steuert, wie z.B. die Intensität oder Farbe eines Scheinwerfers. Die Flexibilität von DMX ermöglicht es Technikern, komplexe und dynamische Lichtszenarien zu kreieren.

Universes und ihre Bedeutung

Ein einzelnes DMX-Universum bietet bis zu 512 Kanäle, was für einfache Anwendungen ausreichen kann. Für größere Installationen, bei denen Tausende von Kanälen benötigt werden, kommt ArtNet ins Spiel. ArtNet ist ein Protokoll, das es ermöglicht, mehrere DMX-Universen über ein einziges Netzwerk zu senden. Dies geschieht typischerweise über Ethernet und ermöglicht eine erhebliche Erweiterung der Steuerungsmöglichkeiten.

Ein innovatives Setup: Enttec Octo und QLC+ auf Raspberry Pi

Mein persönliches Setup illustriert die Leistungsfähigkeit von DMX und ArtNet. Ich verwende den Enttec Octo, ein Gerät, das bis zu 8 DMX-Universen in Signale umwandeln kann, die direkt mit meinen Neopixel LEDs kommunizieren. Die Steuerung erfolgt über ArtNet mit der Software QLC+, die auf einem Raspberry Pi läuft. Dieses Setup ist kompakt und ideal für musikalische Performances, da es vorprogrammierte Lichtszenen auf der Basis festgelegter Cues und Audiotrigger ausführt.

Die Vorteile des kompakten Setups

Die Kompaktheit und Flexibilität meines Setups ermöglichen es mir, es nahtlos in musikalische Performances zu integrieren. Die Lichtshow ist vollständig programmierbar, was bedeutet, dass ich mich während der Performance nicht um die Lichtsteuerung kümmern muss. Stattdessen kann ich mich voll und ganz auf die Musik konzentrieren, während das Licht perfekt auf die Audiotrigger und vordefinierten Cues reagiert.