IMPULS 2: Feschmarkt Graz

Am 13. Oktober hatte ich das Vergnügen zusammen mit meinen Arbeitskolleginnen, den Feschmarkt in der Seifenfabrik zu besuchen – eine Veranstaltung, die Künstler und Handwerker aus der Region zusammenbringt und ihnen eine Plattform bietet, um sich zu präsentieren. Der Markt hat nicht nur eine Vielfalt an handgefertigten Produkten geboten, sondern auch einige wichtige Erkenntnisse und Inspirationen für mein vorläufiges Masterarbeitsthema (Social Media Marketing für Handarbeitsunternehmen).

Ein bunter Markt voller Kreativität und Diversität

Beim Betreten des Feschmarkts fiel mir auf, dass die Aussteller:innen im Mittelpunkt stehen, da die Halle selbst ganz dezent und einfach gehalten ist und so nicht von den Handarbeiten ablenkt. Es gab zahlreiche verschiedene Stände, die Dinge wie Kleidung, Schmuck, Kunst oder Essen anboten.

Persönliche Begegnungen mit Kreativen Köpfen

Ein Vorteil des Feschmarkts ist die Möglichkeit, mit den Künstler:innen und Handwerker:innen direkt zu sprechen. Hinter jedem Stand verbirgt sich eine einzigartige Geschichte, sei es die Inspiration für ein bestimmtes Produkt oder der kreative Prozess hinter der Fertigung. Diese persönlichen Einblicke waren besonders interessant, da sie bei mir die emotionale Bindung zu einzelnen Produkten stärkten und mich gewillter machten etwas zu kaufen. Dies zeigt mir, dass die Person hinter dem Produkt einen ganz hohen Stellenwert in der Handarbeitsszene hat.

Impulse für meine Masterarbeit

Da sich mein vorläufiges Masterarbeitsthema speziell auf digitales Marketing auf Social Media Plattformen fokussiert, war ich besonders darauf bedacht, wie die Aussteller:innen ihre Präsenz in der digitalen Welt gestalten. Viele der Aussteller nutzen bereits Plattformen wie Instagram und Facebook, um ihre Produkte zu präsentieren und mit ihrer Zielgruppe in Kontakt zu treten. Mein Besuch beim Feschmarkt verstärkte meine Überzeugung, dass Social Media eine entscheidende Rolle im Marketing für Handarbeitsunternehmen spielt. Durch die Pflege von ansprechenden Instagram-Profilen oder die Nutzung von Facebook-Gruppen können diese Künstler nicht nur ihre Werke präsentieren, sondern auch eine aktive Community aufbauen. Eine weitere Erkenntnis für mich war die Bedeutung visueller Inhalte. Handgefertigte Produkte zeichnen sich oft durch ihre Einzigartigkeit und Schönheit aus, die auf Fotos besonders gut zur Geltung kommen. Daher wird ein geschickter Einsatz von visuellem Content auf Social Media Plattformen zu einem entscheidenden Element, um das Interesse potenzieller Kunden zu wecken.

Fazit: Eine Erfahrung voller Erkenntnisse

Der Besuch des Feschmarkts in Graz war nicht nur ein inspirierender Ausflug in die Welt des Handwerks und der Kunst, sondern auch ein wichtiger Impuls für meine Masterarbeit. Die direkten Gespräche mit den Künstlern und die Beobachtung ihrer Social Media Aktivitäten haben mir wertvolle Einblicke verschafft, wie diese Branche von einer gezielten digitalen Präsenz profitieren kann.

Der Feschmarkt und seine kreativen Köpfe haben meine Überzeugung gestärkt, dass Social Media Marketing nicht nur ein Tool ist, um Produkte zu verkaufen, sondern auch eine Plattform, um Geschichten zu erzählen und echte Verbindungen mit der Zielgruppe aufzubauen. Ich freue mich darauf, diese Erkenntnisse in meiner Masterarbeit zu vertiefen und die Welt des Handwerks in der Zeit der sozialen Medien weiter zu erkunden.


Links

Impulse #2 – Thisteenagelife

Thisteenagelife – a project that aims to support young people in connecting with themselves, each other, and caring adults through meaningful conversations around personally relevant topics that are not traditionally explored in middle and high school classes. The project consists of a podcast, an Instagram page and its own website. It was founded by a group of teenagers, which you can join yourself, who create content for other teenagers, discuss topics, give advice and try to answer a teenager’s questions. For me, this project is a positive example of how social media (like Instagram) can be used for teenagers and give them a platform for all their struggles. There is plenty of content out there that can be very helpful for teenagers and it’s relieving to know that there are others out there who are feeling the same way as you, pondering the same questions and feeling insecure too. Instagram doesn’t always have to be bad and toxic (especially for this age group), it can also educate, help and actually connect. Through sites like these, you can also find the podcast, the website and similar projects. I think I would have wished for something like this in my teenage years and see it as motivation to keep working on my research topic in order to make the Instagram platform more teen-friendly and give more space to pages and topics like this.

https://thisteenagelife.org

https://www.instagram.com/this.teenage.life/?hl=de

Impuls 1: TED Talks

TEDxKIT: Design und Künstliche Intelligenz von Kevin German

https://www.youtube.com/watch?v=5O-2hONSSfI (15 min)

Kevin German stellt sich in seinem TED-Talk der Frage, ob sich Design, bzw. ein Design Prozess, automatisieren lässt. 

Ein Design Prozess lässt sich in fünf Phasen einteilen: Briefing, Recherche, Konzept, Design, Prototyp.

Recherche lässt sich leicht automatisieren. In der Konzept-Phase muss man kreativ sein. Man schafft aus einem „Nichts“ ein Design. Deshalb gilt sie auch als die schwierigste Phase des Designprozesses, aber auch als die schwierigste für künstliche intelligenz zu automatisieren.

Design lässt sich in drei Ebenen einteilen:

Die Gestalt (Die Silhouette), Die Oberfläche, Die Textur (Farbgebung, Logos)

Bei KI denken wir hauptsächlich an künstliche neuronale Netze, welche unseren biologischen neuronalen Netzen im Gehirn sehr ähnlich sind.

Kevin German beantwortet seine Frage am Ende ob sich Design automatisieren lässt mit einem „Jain“. Nach seiner Meinung nach lassen sich teile des Designprozesses sinnvoll unterstützen. Z.B. bei der Konzept-Erstellung. Im Endeffekt ginge es laut ihm aber immer noch für ein Design, das FÜR Menschen geschaffen wird. Deshalb können auch Menschen selbst am ehesten wissen, wie etwas für diese am besten gefertigt wird.

Bei Kreativität wird zwischen kleiner und großer Kreativität unterschieden. Kleine Kreativität erschafft verschiedene Variationen (z.B. ein Kuchenrezept wird leicht verändert) von etwas das schon besteht. Die große Kreativität erschafft etwas nie da Gewesenes (etwas Disruptives, Innovatives).

Er endet seinem Talk mit der Feststellung, dass Künstliche Intelligenz kleine Kreativität beherrscht, aber große Kreativität sei uns Menschen aber noch für nicht absehbare Zeit vorgehalten.


TEDx Talks: How AI shapes a new form of creativity von Johannes Stelzer

https://www.youtube.com/watch?v=LzsjORsPTfU (11:08 min)

Johannes startet seinen TED Talk mit Leonardo da Vinci. Er zeigt das Gehirn von Leonardo und das dieses gar nicht so viel anders aussieht als des anderen Menschen. Um Kreatitvät zu verstehen, kann nicht nur ein Gehirn betrachtet werden, sondern es geht auch um die Kommunikation zwischen verschiedenen Personen.

Kreative Künstliche Intelligenz ist eine ganze Familie von Methoden. Diese können neue Dinge erschaffen, welche einzigartig und originell sind. Ideen zu generieren und diese in die Praktik umzusetzen, ist ein Skill, dass uns Menschen vorbehalten war. Deshalb könnten Pessimisten denken, dass AI sehr gefährlich ist und uns ersetzen könnten.

Johannes Stelzer schlägt vor, diese neue Errungenschaft für sich zu nutzen und eine neue Form von Kreativität zu entwickeln. Nämlich eine Symbiose von Menschen und Maschine.

Er sieht drei Key-Felder in denen dies eine große Rolle spielen könnte, nämlich Kunst, Wissenschaft und Design. Denn obwohl diese Errungenschaft erst so kurze Zeit im Gespräch ist, gibt es schon Beispiele in denen dies umgesetzt wurde.

Kunst: Ein experimentelles Kunst-Projekt („Wer malt denn da?“), in dem die Besucher der Ausstellung aufgefordert werden, inspiriert zu sein und ein Kunstwerk zu schaffen. Die Werke wurden in ein AI-System gegeben und mit Expressionisten verwoben. Die AI schaffte ein neues Kunstwerk daraus.

Wissenschaft: Im Max-Plank Institut wurde ein MRI Scanner geschaffen. AI wird gefragt um neue Bilder mit dem Scanner zu erschaffen.

Design: Hier gibt es sehr viele Beispiele. 


TEDx Talks: Can artificial intelligence be creative? Von Ahaan Pandya

https://www.youtube.com/watch?v=8TOgN-U0ask (10 min)

Beim Thema AI haben viele Personen Vorurteile. 

Viele stellen sich immer noch einen Roboter unter AI vor. 

Es gibt den Glauben das AI „unbiased“ ist. Welcher aber falsch ist, denn AI kann nur von Daten lernen, deshalb ist AI nur so unvoreingenommen wie die selbst Datensätze sind.

Ist AI unsere nächste große Revolution? AI kann manche Arten von Krebs besser feststellen als Ärzte mit viel Erfahrung. Die COVID Impfung könnte auch nur mit der Hilfe von Künstlicher Intelligenz so schnell erforscht werden.

Aber kann AI auch kreativ sein? DALL-E 2 kann Kunst und Bilder herstellen nur von einem Prompt.

Nachteile: AI hat keine menschliche Ethik.


TEDx Talks: What Happens When Art Meets AI? Von Bendikte Wallace

https://www.youtube.com/watch?v=T7bfTHRDgsc (14 min)

Benedikte erklärt, dass wir ob Wissenschaft und Kunst als zwei komplett verschieden Fronten sehen. Sie erklärt, wie sie ihren Weg gefunden hat und versucht Computern Kunst beizubringen. In einem Beispiel versuchte sie, dem Computer einen Tanz beizubringen. Sie zeigte dem Computer viele Videos von Tänzer. Dieser suchte sich Punkte, an die er sich hält. Der Computer erschuf drei verschiede Beispiele. Eines war technisch gesehen am „menschlichsten“, aber ist dies interessant? Ist die Kunst? Wenn nur etwas gemimikt wird?

Benedikte sagt, dass sie sich sicher ist, dass AI ein großes Potential birgt. Sie möchte ihrem Computer aber eher erklären, wie sie kollabieren können. Sie möchte den Computer als Tool nutzen, das IHR hilft. Denn Mensch + Maschine können im Moment das optimale Ergebnis schaffen.

Im Ergebnis fragt sich noch in die Runde, ob AI überhaupt so kreativ sein muss, um allein zu arbeiten? Oder ob es nicht einfach die Lösung ist MIT ihm zu arbeiten.

Neue Inspiration durch das Gespräch mit Gabriele Lechner

Am Freitag hatte ich das Gespräch mit Frau Lechner bezüglich unserem Plan für die Masterarbeit. Ich habe ihr von meinen bisherigen Recherchen erzählt und dass ich mir persönlich nicht vorstellen kann, Buchbinden als Thema für meine Masterarbeit zu wählen. Sie hat mir dabei zugestimmt und mir auch grundsätzlich von Printthemen abgeraten. Wir haben dann gemeinsam versucht in meinen Stärken im Design und meinen persönlichen Interessen irgendetwas zu finden, was sich als Thema eignen könnte. Der Prozess war sehr zäh und zuerst auch scheinbar aussichtslos, aber zum Schluss konnten wir dann doch noch eine mögliche Richtung finden.

Ich habe ihr von meiner Leidenschaft für Handarbeiten erzählt und sie hat mich auf die Idee gebracht, dies mit der digitalen Welt zu verknüpfen. Wie können Handwerker:innen Social Media effektiv für sich nutzen? Welche Marketingstrategien funktionieren, welche nicht? Wer ist das Publikum und wie kann man diese gezielt ansprechen? Dies sind alles Fragen, die ich in einer Masterarbeit behandeln könnte – das Thema ist durchaus umfangreich und bietet sich auch gut für Experimente (verschiedene Strategien und Designs können auf Social Media Plattformen getestet werden), Experteninterviews (erfolgreiche Betreiber von Handarbeits-Social-Media-Accounts können befragt werden) und auch Umfragen an.

Als erster Ansatz war das Gespräch schon sehr hilfreich – nun muss ich mir genauere Überlegungen zu dem Thema machen und es dann konkretisieren.

IMPULS 1: Design Thinking Impact Conference

Die Design Thinking Conference zum 15 jährigen Design Thinking im Hasso Plattner Institut fand in einer hybriden Form von 15. bis 16. September 2022 statt. Dr. Julia von Thienen eröffnete das Event mit ein paar Einblicken in die derzeitigen Forschungsprojekte.

Auf dieser Konferenz wurde auch das Thema Neurodesign behandelt. Online dazu geschalten waren zwei Neuroforscher von der Standford Universität, die als Pioniere in dieser Thematik gelten. Das ist einerseits Prof. Dr. Allan Reiss und Prof. Manish Saggar. Einer der Projekte, an denen sie jetzt schon mehrere Jahre arbeiten ist, die Untersuchung des Gehirn bei Kreativität. Von Interesse ist, was genau passiert, wenn man Kreativität erhöht bzw. verbessert. Sie verwenden dabei Tools wie z.B. MRI Experimente oder FRMI Scans. Ein Produkt muss neu und effektiv sein, damit es als kreativ bezeichnet wird. Hierbei wird auch das Verhalten untersucht, in welchen verschiedenen Arten Personen ihr Ziel erreichen. Wenn ich immer dieselbe Strategie verwende, ist sie zwar effektiv, aber nicht kreativ.

Zu Gast war auch Pia Gebbing, die gerade ihren PhD macht und sie beleuchtet die Thematik nicht nur aus Sicht der Neuroforschung, sondern auch aus Unternehmenssicht. Sie erwähnt das berühmte Zitat

“Die Dinge richtig machen vs die richtigen Dinge machen.”

Die richtigen Dinge –> Unternehmersicht

Die Dinge richtig machen –> Sicht Neuroforschung

Es ist wichtig eine gemeinsame Sprache zwischen den zwei Disziplinen zu finden, um es für die Unternehmen auch interessanter bzw. verständlicher zu machen, damit sie die Erkenntnisse implementieren können. Die Forscher haben Angst, dass Unternehmer Ergebnisse anderer nicht richtig interpretieren und sie versuchen zu generalisieren. Man muss den Unternehmen die Vorteile der Forschung klar machen, auch wenn sie sehr teuer ist im Gegensatz zu einer Umfrage beispielsweise. Jedoch sind die Ergebnisse von hoher Relevanz.

Eine Frage aus dem Publikum war, ob auch untersucht wird, was Kunden an Produkten mögen bzw. worauf sie beim Kauf achten.

Ein Marketing-Team befasst sich mittels Eye-Tracking mit dieser Thematik. Ebenfalls werden in Geschäften funktionale Spiegel aufgestellt, um noch genauer ihr Verhalten zu analysieren. Auch wird mittels einem EEG-Gerät die genaue Gehirnaktivität gemessen, um herauszufinden, ob man einen Kauf voraussagen kann. Für Prof. Dr. Allan Reiss fangt der Prozess jedoch schon bei der Kommunikation des Produktes an. War die Kommunikation davon effektiv? Aus diesem Grund betrachten sie auch oft Bewertung außerhalb der Testpersonen.

Prof. Dr. Allan Reiss erzählte auch von einer Studie der “National academy of sciences”, die eine funktionale MRI Studie durchgeführt hat, welche sich mit dem Belohnungssystem bzw. Motivationssystem des Gehirn gefasste. In dieser Studie hatten die teilnehmenden Personen einen risikoreiche Aufgabe. Durch Beobachtung der intrinsische Variabilität dieser Gehirnregion konnte das Verhalten der Personen vorausgesagt werden.

Die Forscher betonen, dass noch viel Potential in der Zukunft liegt und man mit der immer neuer wachsenden Technologie noch mehr herausfinden wird. Ist das Gehirn programmierbar?

Links:

https://www.researchgate.net/publication/341626667_NeuroDesign_From_Neuroscience_Research_to_Design_Thinking_Practice_Hasso_Plattner_Design_Thinking_Research

https://hpi.de/en/dtrp/projects/projects-201516/impact-and-sustainability-of-creative-capacity-building-stanford.html

https://link.springer.com/chapter/10.1007/978-3-031-36103-6_10

Impulse #1 – Artificial Images Lecture

As a big fan of NYU TISCH and their two programs named Interactive Telecommunications Program and Interactive Media Arts, I often search for their teachers GitHub Accounts as many of them provide open access to lecture materials. By doing so they give people who are not studying at this institution the chance of getting in touch with state-of-the-art research for artistic expression.

One of these teachers is Derrick Schultz who not only shares his code and slides but also uploads his entire classes on YouTube. By doing so I was able to follow his Artificial Images class and learn the basics of artificial image creation and state-of-the-art algorithms working under the hood.

Derrick Schultz introduced in his class the following algorithms that are currently used to generate images:

  • Style Transfer
  • Pix2Pix Model
  • Next Frame Prediction (NFP)
  • CycleGAN / MUNIT
  • StyleGAN

He also gives his opinion on the difficulty of each model and orders them from easiest to hardest.

  1. Style Transfer
  2. SinGAN
  3. NFP
  4. MUNIT/CycleGAN
  5. StyleGAN
  6. Pix2PIX

After comparing the different models, I found two algorithms that could produce the needed video material for my installation.

  • Pix2Pix
  • StyleGAN

Unfortunately, those are also the ones rated to be the most difficult ones. The difficulty is not only the coding but also data quality and quantity, GPU power and processing time.

In the following section I will analyze the two algorithms and give my opinion whether they could help me generating the visuals for the interactive iceberg texture of my project.

Pix2Pix

As already mentioned, this algorithm can take either image or a video as input and produces according to the training data a fixed output. I could use images of icebergs from NASA or Google Earth as my data set and detect with canny edge algorithm the edges of my images. By doing so, I get from every image in my data set the corresponding edge texture and therefore train the Pix2Pix algorithm to draw iceberg texture by giving edge textures as input.

Source: Canny edges for Pix2Pix from the dataset-tools library: https://www.youtube.com/watch?v=1PMRjzd-K8E

Problem:

  • The need to develop an algorithm that generates interactive edges.
  • Depending on the training set the output can look very different and in the worst case can not be associated with iceberg texture. A lot of training and tweaking results in many iterations of model training.

StyleGAN

In this scenario I could again use iceberg textures from NASA or Google Earth as training data and produce an animation of cracking iceberg texture that shrinks. Since this algorithm produces no fixed output, one can produce endless variations of image material.

A sample animation made by the teacher can be seen here:

Problems:

  • Getting in control of the output data of the algorithm is very difficult as it produces random interpolations based on the training data.
  • Heavy manipulation of training data might be needed to get the desired outcome. This results in many iterations of model training and therefore a lot of time, computer power, heavy GPU processing and costs.
  • Big data set of at least 1000 images recommended.

Link to the Lecture: https://www.youtube.com/@ArtificialImages

Blog#2

Wie bei Blog#1 erwähnt, stützt sich digitale Barrierefreiheit auf drei Säulen.

  • Contentmanagement (10%)
  • Design (10%)
  • Entwicklung (80%)

Da die Entwicklung den größte Teil ausmacht, widme ist ihr einen eigenen Post.

Contentmanagement

Verständlichkeit

Ein wichtiger Grundsatz der digitalen Barrierefreiheit ist die “Verständlichkeit“, was bedeutet, dass digitale Inhalte so formuliert sein sollten, dass sie von allen Benutzer*innen leicht verstanden werden können, unabhängig von ihren Fähigkeiten oder Einschränkungen. Abkürzungen sollten vermeiden- oder zumindest eindeutig deklariert werden. Fremd- und Eigenwörter vermeiden und keine Wörter nur in Großbuchstaben schreiben. So können E-Reader die Grammatik richtig verstehen und flüssig vorlesen.

Einfache Sprache  / easy English

KISS Formel: “keep it simple and stupid”. Leichte Texte im Bereich Contentmanagement und Redaktion sind eine wesentliche Voraussetzung für digitale Barrierefreiheit. Damit inkludiert man Menschen mit kognitiven Einschränkungen und/oder sprachlichen Defiziten. Eine klare und einfache Sprache verbessert die Kommunikation für alle Leser*innen und reduziert Missverständnisse.

Weitere Informationen: https://centreforinclusivedesign.org.au/wp-content/uploads/2020/04/Easy-English-vs-Plain-English_accessible.pdf

Alternativ Texte

Das sind kurze Beschreibungen oder Texte, die in den HTML-Code von Bildern, Grafiken, Videos und anderen nicht-textbasierten Elementen einer Webseite eingefügt werden. Der Zweck von Alt-Texten besteht darin, das E-Reader eine Beschreibung eines Bildes vorlesen, um visuelle Elemente für Menschen mit Sehbehinderungen oder anderen Einschränkungen wahrnehmbar zu machen.

Strukturierung

Überschriftenhierarchie, Zwischenüberschriften, Absätze, Aufzählungen, kein Blocksatz.

Maßnahmen auch sinnvoll für Seo-Optimierung.

Design

Die Anforderungen für Design gelten auch für Untertitel, welche in Videos angezeigt werden können.

 
Kontraste

Kontraste von Farben müssen mindestens 3:1 (für AA) und 4,21:1 (für AAA) betragen. Je höher der Kontrast, desto mehr Menschen mit Sehbeeinträchtigung können die Farbgestaltung besser deuten.

Für eine schnelle Kontrolle dafür gibt es Software (wave – web accessibility evaluation tool) https://wave.webaim.org/ oder Browser Add Ons und Erweiterungen wie diverse “Contrast Checker”. Diese Tools liefern aber nur eine 20% – 40% akkurate Ergebnisse und müssen im Nachhinein immer manuell geprüft werden.

Der Blinden- und Sehbehindertenverband Österreich (https://www.blindenverband.at ) gibt auf der Website eine beispielhafte Vorführung für die Anwendung von Farbkontrasten. Mitberücksichtigt wurde hier auch, dass Personen mit Farbenblindheit oder Farbkontrastschwächen, wie z.B. rot-grün Schwäche, im Menü oben zwischen verschiedenen Farbkontrasten wählen können, und dadurch auf ihre Bedürfnisse abstimmen können.

Rot-Grün Schwäche betrifft 9% der Männer und 0,4% der Frauen. (Quelle, https://www.aok-bv.de/presse/medienservice/ratgeber/index_25206.html ; Zugriff am: 02.11.2023)

Absätze, Schriftarten und -hierarchie

  • Absätze sollen aus nicht weniger als 60- und nicht länger als 80 Zeichen bestehen. Die Zeilenhöhe beträgt idealerweise 1,5 pt.
  • Linksbündig, keine Blocksätze
  • Serifenlose Schriften auf Displays bevorzugt. Abhängig von der Displayauflösung können Serifen nur mehr oder weniger korrekt dargestellt werden.
  • Wörter in Majuskeln und Kapitälchen(Großbuchstaben) vermeiden. E-Reader können die Grammatik nicht korrekt deuten, verlesen sich oder der Lesefluss im Vorlesen wird behindert.  
  • Abhängig von Schriftgröße sind condensed- Schriftarten ungeeignet. Eine zu enge Darstellung von Zeichenketten behindert den Lesefluss für Menschen mit Sehbehinderung.
  • Die Mindestschriftgröße für Schriften auf digitalen Endgeräten beträgt 16 Pixel (px). Sowohl für Desktop als auch Mobile Ansicht. Je nach Schriftart kann das auch abweichen, gewählt werden sollte eine Schriftart mit exakter Zeichensetzung und wohldosierter Abstand in der Laufweite sein.

Impulse 1 – Adobe MAX 2023

Since the recent introduction of Adobe Firefly and its implementation into Adobe Photoshop, Adobe has been working to include more AI tools into their line of software products, many of which were announced and showcased at Adobe MAX 2023, which I unfortunately could not see live, but have since been wanting to catch up on.

Getting into a little more detail about the Firefly AI, Adobe Photoshop has been using the ‘Firefly Image Model’, a text-to image based AI. During the keynote, Adobe showcased the new ‘Firefly Vector Model’ as well as the ‘Firefly Design Model’, alongside many other announcements:

Adobe Photoshop & Photoshop Web

After a simple showcase of the pre-existing Firefly features such as generative fill, remove and expand, Adobe presented what they call ‘Adjustment Presets’, a feature that allows the user to save and recall any combination of adjustment layers, hoping aid in consistency between different projects. After the showcase, Adobe summarised the new features Photoshop and Photoshop Web have gotten in the past year, some of which seem older though:

Adobe Lightroom

Brushing over the AI powered ‘Lens blur’ filter, Adobe quickly jumped to the new features in a summarised view:

Adobe Illustrator & Illustrator Web

Illustrator has been able to utilise Firefly in the form of the ‘Generative Recolor’ feature, which changes any artwork’s color palate based on a text prompt. With the freshly announced Adobe Firefly Vector Model, Illustrator gains access to a variety of new features which were promptly shown off. ‘Retype’ is able to recognise fonts from raster as well as vector graphics, and is able to convert vectors it recognises the font of back to editable text. ‘Text to Vector’ works the same way as ‘Generative Fill’ does in Photoshop, except that its results are fully editable vectors. The AI is capable of producing simple icons, patterns, detailed illustrations and full scenes. Additionally, the AI is able to analyse styles and colours of existing artworks and apply them to what the user wants to create. After announcing Illustrator Web, they once again summarised the new features of Illustrator:

Adobe Premiere Pro

Emphasising a new way to edit, ‘Text Based Editing’, Adobe Premiere will now automatically transcribe any video fed into it and displays it in the Transcript panel. Apart from speech, the panel recognises multiple people as well as filler words. In the Transcript panel, the user can highlight parts of the transcript and have Premiere create clips from the selection or change parts of the transcript, which will also change the clips in the timeline. After a brief showcase of an AI powered background noise suppressor, we get another summary of Premiere Pro’s new features:

Adobe Express

Adobe’s newest tool, the web-based Adobe Express that released in October 2023, also got a showcase and feature presentation. Adobe Express is focused on interplay between a multitude of Adobe programmes as well as their cloud-based asset library to quickly and easily create still and animated artwork and share it on a multitude of social media platforms, with support for resolution templates, schedulable posts including a social schedule calendar, and tightly integrated collaboration. Express will now also make use of the Adobe Firefly Design Model within the feature ‘Text to template’. The user can input a text prompt and Firefly is able to create editable design templates utilising the Adobe Stock library as well as the Firefly Image and Vector Model to generate templates and text suggestions including an understanding of language, supporting specific messages, names, jokes and translations.

Adobe Firefly Image 2 Model

Other than an overall quality improvement and support for higher resolutions, the first update to Firefly’s Image Model now allows for more control over Firefly’s generated images, ranging from technical settings such as aspect ratio, aperture, shutter speed and field of view control to creative stylisation effects supporting a variety of art styles ranging from 3D renders to oil paintings and also supports the option to submit own artwork that the AI will then match the style of its generations to.

Upcoming products

After the showcase of already available products, Adobe announced three upcoming Firefly Models: Firefly Audio Model, Firefly Video Model and Firefly 3D Model. Without going into detail, a ‘Text to Video’, an ‘Image to Video’ feature as well as a feature for users to train their own Firefly models.

Conclusion

I’m incredibly excited to try out all of the new AI tools and features across the whole Adobe Creative Cloud Suite and hope to integrate as many of them as possible in my current workflow. Having said that, because I mainly work inside of Adobe After Effects, frequently making use of its 3D functionalities and completing some projects in Blender altogether, I am looking forward to future developments, especially when it comes to After Effects and the recently announced Firefly 3D Model.

Links

Keynote Summary

After Effects 3D workspace update

Project Stardust

IMPULSE#4_Frank Spillers: VR Design and UX

For my fourth impulse blog I listend to a podcast by The UX Usability Podcast with the title “Frank Spillers: VR Design and UX”. I’m also very interested in User Expierence and especially how to handle UX in new spatial design as in Virtual Reality. I came across this podcast while searching for the keywords UX and VR. In this podcast the main speaker is Frank Spiller who is an UX designer for many years with expertise in AR/VR UX and emotion design.

In the podcast he talked about how important inclusion is and what aspects to consider when designing inclusive. Also storytelling is an essential part in VR Design. The storyline should be told in the first couple of minutes as the whole expierence often lasts 10 to 20 minutes and users have a very short attention span. One thing I found very interesting when emotion design was mentioned and how sound has an impact in the Virtual Reality experience. Frank Spiller also spoke about how the movie industry is using sound to create the narrative. They lay down the sound scape first and then they build the narrative around it. Sound, especially spatial sound can be an essential aspect into the VR expierence as it has the power to pull you into the adventure.

In my case, I take all the points I mentioned above about inclusive design, emotion design, and storytelling into my project. I have to make sure that I create an experience that people of all backgrounds can relate to and that the story being told is understood in the first few minutes. Sound is very important to complete an immersive experience.

Links:

https://www.linkedin.com/posts/frankspillers_bending-time-in-vrar-ux-design-activity-7120906319162687488-gF1y/

https://www.linkedin.com/in/frankspillers/

https://open.spotify.com/episode/26RnHbDwbVsVM5c6nB7Ce8?si=gyBsVhsLTFiuu_Rs4FuAvQ

Impuls 2: Pressekonferenz Tuntenball

Im Zuge der Erstellung des Designs für den Grazer Tuntenball 2024 durfte ich zum ersten Mal in meinem Leben eine Pressekonferenz besuchen, was für mich eine spannende und neue Erfahrung war, da ich noch nie im Public Relations Bereich gearbeitet oder Praktika absolviert habe.

Die Pressekonferenz, die im neuen Community Center der RosaLilaPantherInnen stattfand, zog die Aufmerksamkeit von Journalisten aller bekannten Zeitungen, sowie einigen Drag Queens und Kings in Graz auf sich. Für mich war es hier besonders interessant neue Personen kennenzulernen und mein Netzwerk als selbstständige Designerin zu erweitern.

Ein Höhepunkt der Pressekonferenz war die Enthüllung des diesjährigen Thema “HALOS x HORNS”. Unter diesem Motto wird die Vielfalt in der Gesellschaft gefeiert, wobei himmlische Eleganz und teuflischer Charme aufeinandertreffen. Der Tuntenball ist nicht nur eine der größten Partys in der Steiermark, sondern auch ein Ort, an dem Freiheit gelebt und für eine offene Gesellschaft gekämpft wird.

Insgesamt verspricht der Tuntenball 2024 eine Nacht voller Glanz, Unterhaltung und positiver Energie zu werden. Die Pressekonferenz hat bereits Lust auf mehr gemacht, und die Vorfreude auf dieses einzigartige Event steigt mit jedem Tag.