Kommt die musikalische Apokalypse durch KI generierte Musik? Werden Künstler arbeitslos? Wird KI-Musik unsere Hörgewohnheiten verändern?
Klar, wir sind hier keine Wahrsager und können nicht in die Zukunft blicken. Aber das hält uns nicht davon ab, uns mit diesen spannenden Fragen auseinanderzusetzen. Lasst uns mal einen genauen Blick darauf werfen, wo wir aktuell bei KI-generierter Musik allgemein und auch bei Techno im Speziellen stehen und wie die Zukunft damit aussehen könnte.
Die Evolution der KI in der Musikerzeugung
Musik ist eine seit jeher zutiefst menschliche Ausdrucksform. Und doch stehen wir nun an der Schwelle einer revolutionären Transformation. KI – Künstliche Intelligenz war vor Jahren noch ein seltsames Konstrukt, einst ein fernes Konzept der Science-Fiction. Bei KI dachte man früher zuerst an SKYNET aus Terminator, HAL aus 2001: Odyssee im Weltraum, oder DATA aus Star Trek – The Next Generation.
Und heute? Heute generieren wir bereits Bilder mit KI, lassen Chat-GPT komplexe Aufgaben für uns erledigen und auch in Bereichen wie der Industrie oder der Medizin hält KI immer mehr Einzug. Und jetzt kommt ein weiterer Part hinzu: Musik.
Dabei reichen die Ursprünge der computergestützten Musikerzeugung bis in die 1950er Jahre zurück. In einer Zeit, als Computer noch raumfüllende Kolosse waren, begannen Pioniere wie Lejaren Hiller und Leonard Isaacson an der Universität von Illinois einfache Algorithmen zur Komposition von Musik zu entwickeln. Ihr „Illiac Suite“ von 1957, benannt nach dem verwendeten Computer, gilt als das erste vollständig computergenerierte Musikstück.
In den folgenden Jahrzehnten entwickelten sich diese frühen Experimente zu immer komplexeren Systemen. Die 1960er und 70er Jahre sahen die Entwicklung stochastischer Methoden durch Komponisten wie Iannis Xenakis, der mathematische Modelle nutzte, um musikalische Strukturen zu erzeugen. Parallel dazu entstanden regelbasierte Systeme wie David Copes „Experiments in Musical Intelligence“ (EMI), diese versuchten den Kompositionsprozess menschlicher Komponisten nachzuahmen.
Mit dem Aufkommen leistungsfähigerer Computer in den 1980er und 90er Jahren wurden die Möglichkeiten erweitert. Markov-Ketten und andere probabilistische Modelle erlaubten es, realistischere und musikalisch zusammenhängende Stücke zu generieren. Diese Systeme analysierten existierende Musik, um Muster zu erkennen und neue Kompositionen zu erzeugen, die statistisch ähnlich waren.
Der wahre Durchbruch kam jedoch mit dem Einzug des maschinellen Lernens und insbesondere des Deep Learnings in den 2000er und 2010er Jahren. Neuronale Netze, trainiert mit riesigen Mengen musikalischer Daten, konnten nun nicht nur Melodien und Harmonien erzeugen, sondern auch komplexe musikalische Strukturen und sogar ganze Arrangements in verschiedenen Stilrichtungen produzieren.
Manche dieser Entwicklungen sind auch heute schon in Plug-Ins für aktuelle Musik-Programme wiederzufinden, die auch heimische Produzenten nutzen können.
Doch nun stehen wir an einem Punkt, an dem KI-Systeme in der Lage sind, vollständige Songs zu komponieren, Instrumentalspuren zu separieren und zu transformieren, und sogar den Stil spezifischer Künstler nachzuahmen. Dabei können auch Gesang und Stimmen kreiert oder aus ein paar Sekunden Musik ein weiterführender Track erstellt werden. Und all dies dürfte erst der Anfang sein.
Diese Entwicklungen bringen natürlich viele Fragen mit sich und stellen uns zudem vor neue Herausforderungen, zum Beispiel wie man mit diesen neuen Technologien umgehen sollte. Doch dies sind Prozesse, die ebenfalls noch nicht abgeschlossen sind. Deshalb schauen wir uns zuerst einmal an, was heute bereits mit KI möglich ist.
Was kann KI?
Man kann sicher viel über Musik schreiben, doch am Ende muss man Musik hören. Ich möchte dennoch versuchen, beides zu verbinden, um Euch vor allem auch mehr technischen Hintergrund mitgeben zu können. Denn auch wenn KI bereits imstande ist, auf Knopfdruck einen ganzen Song inkl. Text zu genieren, so ist der Mensch als Vermittler eigener Ideen immer noch die bessere Kombination, um Kreativität zu pushen.
Ich habe mich für diesen Zweck größtenteils mit Suno und ein wenig mit Udio beschäftigt, zwei aktuelle Anbieter für Musik durch KI. Ich bin also rein in den Kaninchenbau der computergenerierten Musikerzeugung. Zu diesem Zeitpunkt ist Suno in seiner Version 3.5 aktiv. Die Version 1 war im Herbst 2023 in der Lage, Songs in einer Länge von ca 30-40 Sekunden zu erstellen. Das Modell 3.5 erstellt bis zu 4 Minuten. Zudem kann man Songs verlängern lassen. Ebenso können bis zu 60 Sekunden eigenes Material hochgeladen werden, um dieses zu erweitern. Der Katalog an Genres, die erstellt werden können, umfasst mittlerweile Unzählige, die auch weit über den normalen Mainstream-Katalog hinausgehen. Die KI kann mittlerweile einge Stile sehr gut, aber ich bin beim Experimentieren auf alle Fälle auch auf Probleme gestoßen.
Das Erstellen eines Songs oder Tracks ist einfach gehalten, es gibt aber auch Tricks, mit denen man mehr in die Tiefe gehen kann. Man beschreibt in einem Text-Prompt seinen Song, in dem man Genre, Stimmung, Musikinstrumente oder andere Elemente angibt. Möchte man einen Songtext dazu, beschreibt man, worüber der Text handeln soll. Suno erstellt dann neben der Musik auch den Text. Oder man hat selbst einen Text geschrieben und fügt diesen hinzu. Im Text kann man neben Meta-Tags wie [Verse] oder [Chorus] auch andere Angaben machen, die der KI helfen sollen, Deine Ideen hinsichtlich der Struktur umzusetzen. Dass die KI diese Anweisungen im Prompt nicht immer akkurat umsetzt, liegt wohl noch am Entwicklungsstadium. Denn oft macht die KI gerne auch mal Dinge, die so nicht vorgegeben waren.
Man kann also durchaus mit nur einem Knopfdruck und ohne vielen weiteren Angaben einen Track erstellen lassen und mit etwas Glück, gefällt er direkt richtig gut. Aber es kann auch sein, dass man viele Versuche machen muss, bis die eigene Vorstellung ungefähr getroffen oder vielleicht sogar übertroffen wird. Wenn einem dann ein Stück gefällt, kann man dieses auch verlängern lassen. Auch hier kann man per Prompt und Anweisungen im Songtext versuchen, Einfluss zu nehmen.
Was Suno schon gut kann sind Songs mit typischem Aufbau. Es gibt ja gerade im Pop und anderen radiotauglichen Genres oft ähnliche Aufbauten. Verse, Bridge, Pre-Chorus, Break, Outro sind nur einige der Dinge, welche Songs eine klare Struktur geben können. Die KI hat diese Dinge sehr gut drauf, weil oft bestimmten Mustern gefolgt wird und man dies auch zusätzlich im Songtext mit Meta Tags steuern kann.
So klingt KI
Hier habe ich 2 Songs mit jeweils nur einem Prompt erstellen lassen. Musikalisch irgendwie ok, aber der Text ist schon eher einfach gehalten und ergibt manchmal auch keinen Sinn. Dennoch beeindruckend, wenn man bedenkt, dass diese beiden Songs innerhalb weniger Sekunden abrufbar waren.
Prompt: Erstelle einen Song im Technostyle über die Liebe zum Tanzen im Club
Prompt: Erstelle einen Song im Electro Pop style über die Möglichkeiten, mit KI Musik zu erstellen, im Chorus benutze den Satz „So klingt KI“
Mein Spieltrieb war schnell geweckt und da ich selbst schon ein wenig produziert habe und mich als DJ und Labelmacher viel mit Musik beschäftige, musste ich einfach herausfinden, wie weit man gehen kann. Was wäre also, wenn man schon bekannte Sachen neu interpretiert? Mal auf Ernst eine neue coole Version versucht oder einfach nur mit einem satirischen Ansatz Dinge ausprobiert. Hier ein paar Auswüchse meiner Experimente.
Neuer Style mit KI
Wie wäre Haftbefehls „Chabos wissen, wer der Babo ist“ so auf Lovesong und so. Kein Problem. Etwas Text in die Lyrics und dann noch den passenden Prompt dazu.
Prompt: soft love song emotional
Bei Falcos „Amadeus“ wollte ich einen ernsteren Ansatz wählen. In Anlehnung an den echten Wolfgang Amadeus Mozart wollte ich den Text von Falco zusammen mit einer Klavier Sonate erreichen. Hier zeigte sich dann, dass die KI sehr oft einen ganz eigenen Kopf hat. Denn einige der ersten Versionen wurden zwar wunderbar mit einem klassischen Piano Teil zusammengebracht, aber ansonsten wurden andere Styles wild durcheinander gemischt.
Das meiste war dann auch eher unbrauchbar, weil kein Flow vorhanden war und es sich nach 0815 anhörte. Nach mehreren Versuchen entstand dann diese Version, die mir sofort nicht mehr aus dem Kopf ging. Dennoch war sie weit weg von dem, was ich im Prompt stehen hatte bzw. beabsichtigt hatte. Das Interessante daran war, dass die KI den Text von Amadeus irgendwie mit interpretierte. Denn dort hieß es ja „rock me Amadeus“ und dies wurde dann so ein wenig als musikalisches Thema mit umgesetzt.
Prompt: a piano music with string sonatas in the style around 1780
Als nächstes wollte ich einen anderen Klassiker der Pop-Kultur erneuern und sogleich auch meine Ansprüche weiter nach oben schrauben. Mit Jein von Fettes Brot war Sprechgesang an der Reihe. Ich experimentierte etwas herum und wollte im Gegensatz zum Original eine etwas kraftvollere Nummer entstehen lassen. Dabei wollte ich auch Streichinstrumente zum Einsatz bringen, die ein klein wenig Soundtrack-Feelings vermitteln sollten. Der Beat sollte richtig knallen und der Sprechgesang sollten einen richtig coolen Flow haben. Ein Problem war aber, dass es verschiedenen Sprecher gab und im Text selber auch noch andere Elemente waren, die angepasst werden mussten, damit es auch sinnhaft bleibt.
Am Ende hatte ich zig Versionen ausprobiert, die musikalisch oft sehr cool waren. Auch mancher Refrain wurde von der KI teils sehr interessant neu interpretiert. Doch meist passten die Stimmen nicht immer zueinander oder der Flow war eher mau. Es wurde zwar besser, als ich im Text jeder Zeile als Meta-Tag einen Sprecher zuwies, aber perfekt wurde es nie.
Am Ende nutze ich eine Version als Hauptbestandteil, die mir besonders gut gefiel. Dazu wurden aus 2 weiteren Versionen ein paar Sprechparts isoliert und in der Hauptversion ausgetauscht. Zudem wurden die Parts des 2. Sprechers von mir noch mal bearbeitet, sodass sich die beiden Stimmen unterschieden. Das habe ich natürlich nicht mit der KI gemacht, sondern in dem Programm, womit ich auch selbst produziere. Dabei habe ich auch gleich noch den Instrumental und den Voice-Part klanglich etwas aufgepimpt.
Der Inhalt, des fertigen Tracks ist somit zwar komplett durch KI erzeugt, aber ohne meine zusätzliche Bearbeitung wäre der Track nicht wie er nun ist.
Prompt: 80s hip hop, different rapper, some Strings, little Melody, energy, powerfull fast beat, movie soundtrack,
Lützenkirchens „3 Tage Wach“ bietet natürlich eine gute Grundlage, um damit zu experimentieren. Allerdings war es nicht ganz so einfach, eine wirklich gelungene Version mithilfe der KI zu erstellen. Manchmal hat sie sich regelrecht an den Worten verschluckt und es kam zu Duplikationen. Außerdem hatte ich eigentlich im Kopf, daraus einen coolen Breakbeat-Track zu machen, aber es hat nicht so richtig funktioniert. Dennoch habe ich hier einen Electro-Low-Breakbeat-Mix, der zumindest irgendwie cool ist und zum Kopfnicken einlädt.
Prompt: drum and bass, orchestral, 128 bpm
Und hier noch ein Beispiel aus der Kategorie „irgendwie lustig“. In den 90s gab es „Die Doofen“ aka Wigald Boning und Olli Dittrich, welche damals in der Comedy-Show „RTL Samstag Nacht“ im Ensemble waren. Dort wurde auch der Song „Mief“ damals präsentiert. Hier nun eine EDM-Drum ´n´ Bass Variante davon. Ich hatte zwar gehofft, die KI würde klassischen DnB produzieren, das klappte aber nicht.
Prompt: drum and bass, energy, fast
Ebenfalls sehr gut gelungen und schon fast ein Ohrwurm ist diese Version, die eher zurückhaltend ist und ein tolles Arrangement hat.
Prompt: jazz acid, experimental
Was ist mit Techno?
Wie man hören kann, bekommt man mit Texten und ein paar Beschreibungen ganz interessante Ergebnisse. Allerdings ist die Beschränkung des Prompts bei aktuell 120 Textzeichen sehr begrenzt. Das dürfte sich aber im Laufe der weiteren Entwicklung sicher noch erweitern. Bei den Lyrics sind es immerhin 3000 Zeichen, was auch gut ist, wenn man zusätzlich per Metatags Einfluss auf das Arrangement des Songs nehmen will.
Doch was ist mit reinen Instrumentalstücken? Was ist mit Techno? Nun, da wird es recht schnell ganz finster. Denn hier stellte sich schnell das Problem heraus, dass die KI kaum etwas mit den Beschreibungen in den Prompts anfangen konnte. Vieles, was man beschreibt, scheint die KI nicht zu kennen oder wird einfach ignoriert. Die Versuche, einen einfachen Technotrack für den Club zu kreieren, scheiterten schnell daran, dass am Ende etwas entsteht, was zwar „Techno“ zuzuordnen ist, den Vorgaben aber kaum entspricht.
Hier sind Beispiele, die auf demselben Ausgangsprompt basieren. Die Ergebnisse werden jedesmal sehr unterschiedlich. Die meisten Ergebnisse kann man zwar einen weitgefassten Techno-Charakter zuordnen, aber es fehlt die TB-303. Die ersten beiden Beispiele wurden mit dem Modell Suno erstellt, aber auch Udio verhält sich ähnlich, wie man hören kann. Allerdings kann das KI-Modell dort ab und an etwas mit Acid anfangen. Dennoch erzeugt auch Udio Ergebnisse, die eher an experimentelle Avantgarde-Kunst erinnern als an Club-Feeling.
Prompt: Hypnotic techno 132 bpm. TB-303 acid line drives. Epic break with epic synths
Bestehendes Material erweitern
Alle Versuche, etwas Brauchbares im Bereich Club-Techno hinzubekommen, schlugen eher fehl. Durchaus sind elektronische Tracks dabei entstanden, doch oft klangen sie eher abstrakt, experimentell und null nach Clubsound. So stellt sich mir die Frage, ob die KI überhaupt Ahnung von Techno hat, denn andere elektronische Genres sind ja durchaus machbar.
Doch nun war es an der Zeit eine Funktion zu testen, die erst vor kurzem eingeführt wurde. Denn man kann eigenes Material bis zu 1 Minute hochladen und dieses dann erweitern lassen. Natürlich hängt dort ein Filter dazwischen, der verhindert, dass man bekannte Sachen hochlädt. Dies betrifft meist Sachen der großen Major-Labels, also Populärmusik aus dem Bereich Pop, Rock, Hip Hop ect. Allerdings wurde mir auch ein Upload einiger Sekunden von Adam Beyer & Bart Skils – Your Mind ebenfalls verweigert.
Die nun folgenden Beispiele basieren immer auf einem Sample aus dem Originaltrack. Dieser ist zwischen 30 und 60 Sekunden lang und immer am Anfang zu hören. Der Anfang ist also immer vom Original-Track.
Danach habe ich die KI die Stücke erweitern lassen. Das wurde teils mehrfach hintereinander getan und hat oft auch mehrere Versuche benötigt. Neben unbrauchbaren Versionen sind dabei nämlich auch seltsame Fehler aufgetreten. So wurde ein paar Mal die Geschwingkeit des Tracks immer wieder um ein Vielfaches erhöht. Zudem schafft mam es ohne [Outro] Anweisungen in den Lyrics meist nicht einen guten Abschluss zu finden.
Diese Art der Generierung war somit sehr eingeschränkt und ich war sehr der Willkür der KI ausgeliefert. Man ist hier also noch weit weg, um z. B. aus eigenen Ideen einen vollständigen Track nach eigenen Wünschen zu erhalten. Dennoch sind die Ergebnisse interessant, können bei eigenen Sachen vielleicht die ein oder andere Idee bringen und lassen erahnen, wie es in Zukunft mit solch einem Feature weitergehen könnte.
Bei LDC – Die schwarze Zone hat die KI natürlich auch den Text von mir erhalten.
Wo stehen wir?
Wie Ihr sehen bzw. hören könnt, hat die Entwicklung der KI-Modelle im Bereich Musik bereits große Fortschritte gemacht, aber es ist erst der Anfang. Suno war bei meiner Recherche mein Hauptfokus, obwohl Anbieter Udio noch umfangreichere Funktionen bietet, sich aber bis vor kurzem nur kurze Sequenzen generieren liesen. Dennoch zeigte Udio bereits, wie weit man mit KI und Musik arbeiten könnte. Zum Beispiel bietet Udio eine Inpaint-Funktion, um bestimmte Stellen im Track zu bearbeiten und Teile davor oder danach zu erstellen. Jetzt vor ein paar Tagen hat Udio die Version 1.5 veröffentlicht, mit der Tracks von bis zu 2:10 Minuten möglich sind und die Soundqualität verbessert wurde. Ein weiteres großes Update-Feature ist die Möglichkeit, Stems zu speichern. Dies sogar im größen Umfang, als bei Suno. Die Ergebnisse für die Erstellung von Club-Techno sind jedoch immer noch unzureichend bis eigenartig.
Die Qualität der erstellten Songs und Tracks ist dabei sehr schwankend, sowohl inhaltlich als auch teilweise in der Soundqualität. Manches klingt sehr satt und klar, anders eher unterdurchschnittlich. Auch bei den Stimmen gibt es immer wieder Ausreißer, die zu synthetisch klingen. Dennoch muss man ganz klar sagen, dass die gelungenen Ergebnisse teilweise eine großartige Qualität haben können. Gerade beim Sprechgesang hat Suno einige Highlights abgeliefert.
Davon allerdings, einen Track zu erschaffen, der der eigenen Perfektion gerecht wird, sind wir noch weit entfernt. Dennoch lässt sich zumindest in bestimmten Bereichen mit intensiver Arbeit auch die ein oder andere eigene Idee umsetzen. Ich denke jedoch, dass wir bereits in einem Jahr bei einer Entwicklung sein werden, bei der es um ein Vielfaches einfacher sein wird, Kreativität durch KI umsetzen zu lassen.
Als Tool, um neue Ideen zu finden, gerade wenn man mal wieder eine kreative Blockade hat, dafür können die KI-Tools bereits jetzt sehr hilfreich sein. Vorallem, wenn man wieder mal nicht weiterkommt, kann die Funktion der Track-Erweiterung eines Uploads für neuen Input sorgen.
Was bringt die Zukunft?
Wie mit jeder neuen Technologie, wird es auch hier problematische Aspekte geben, die auf uns zukommen werden. Bereits jetzt haben große Major-Labels die Anbieter solcher KI-Modelle verklagt, weil sie der Meinung sind, dass die Trainingsdaten mithilfe von Tracks aus Ihrem Katalog erstellt wurden. Doch das sind rechtliche Nebenschauplätze, um die sich Gerichte kümmern müssen.
Was die KI macht, ist im Grunde nichts anderes als das, was wir Menschen tun. Auch wir nehmen unsere Inspiration aus allem, was uns umgibt und was wir daraus erlernt haben. Eine KI kopiert nicht einfach Dinge eins zu eins, sondern sie lernt, wie Dinge erstellt werden und zusammen funktionieren. Mit diesem Wissen kann dann Neues geformt werden. Doch diese teilweise technologisch-philosophischen Ansätze und Fragen kann auch ich nicht vollständig beantworten.
Werden wir in Zukunft mit KI-Musik auf Spotify & Co. überschwemmt werden?
Vielleicht.
Wird vollständig mit KI erstellte Musik mit einem Hinweis-Label versehen?
Denkbar wäre es.
Werden wir unsern Lieblingshit auf Knopdruck in neue Versionen uns erstellen können?
Ist ja jetzt schon zum Teil möglich.
Wird es der Untergang von echten Künstlern werden?
Wohl eher nicht.
KI als Tool nicht als Ersatz
Viele dieser neuen und verschiedenen KI-Technologien werden am Ende wohl eher als Tool eingesetzt, um eigene kreative Ideen umzusetzen. KI kann dabei sehr hilfreich sein und ist auch schon länger über bestimmte Plug-ins in den Tonstudios vorhanden. Das kann die automatisierte Erstellung von Drums, Hamonien oder Melodien sein. Auch bei der Bearbeitung von Stimme wird bereits viel KI eingesetzt.
Klar, mit Angeboten wie Suno oder Udio kann man mit etwas Glück, einem Prompt und Klick einen wirklich genialen Track erschaffen lassen. Doch bei meiner Recherche musste ich feststellen, dass es im Moment fast unmöglich ist, eigene Vorstellungen punktgenau umzusetzen. Man ist im Moment der Willkür der KI und deren eigenen „Kopf“ noch viel ausgesetzt. Es fehlt im Moment die volle Kontrolle über viele Elemente.
Doch es ist meiner Meinung nach nur eine Frage der Zeit, bis auch dieses machbar sein wird. Im Moment stehen wir am Anfang und die rasante Entwicklung der letzten 2 Jahre zeigt auf, wie schnell sich Dinge entwickeln können. Wenn die Funktionen und Tools weiter ausgebaut und professionalisiert werden, dann können eigene Ideen und Kreativität vielleicht zu neuen Sphären gebracht werden. Und ja, wahrscheinlich werden wir auch mit belanglosen Zeug zugeballter, weil bestimmte Fraktionen wieder das schnelle Geld mit Masse machen wollen. Doch sowas gibt es ja heute auch schon, auch in unsere Szene. Da liegt es am Ende am eigenen Konsumverhalten, ob man sich dem hingeben will.
KI, dein Produzent der Zukunft?
Doch hier noch einmal ein anderer Blickwinkel: In der Technoszene gab es schon immer Acts, die nicht selbst am Produktionstisch saßen und alles selber produzierten. Oft entstand eine Symbiose aus jemandem mit einem kreativen Geist und Ideen sowie einem technisch versierten und gut ausgestatteten Produzenten im Studio. Dass aus dieser Kombination fantastische Musik entstehen kann, zeigt zum Beispiel Sven Väth. Er setzte seine musikalischen Visionen bereits mit Ralf Hildenbeutel, Anthony Rother oder Gregor Tresher um.
Vielleicht kann in Zukunft jemand, der keine Kontakte zu Produzenten hat, dafür aber eine lebhafte Kreativität und Ideen, diese mithilfe von KI-Tools umsetzten. Dies wäre am Ende immer noch eine ehrlichere Arbeit als sich bei Ghostproducern Tracks einzukaufen.
Wir entscheiden wohin die Reise geht
Die Zukunft wird zeigen, wie viel Fluch oder Segen diese KI-Entwicklungen sein werden. Fakt ist aber: diese Technologien, in all Ihren verschiedenen Einsatzmöglichkeiten, sind gekommen um zu bleiben. Am Ende liegt es an uns Menschen, wie wir damit umgehen.
Gerade beim Thema Musik ist der Zusammenschluss aus Künstler und Fans sehr ausgeprägt. Live-Konzerte und das Erlebnis damit sind nicht durch KI zu ersetzen. Gerade Konzerte sind in all den Jahren, seitdem Streaming immer relevanter wurde, immer wichtiger für Künstler geworden. Der Kultstatus von Künstlern wird sicher auch weiterhin bestehen bleiben, denn es braucht Personen zur Identifikation. Selbst wenn diese dann im Studio Tracks mit Hilfe von KI bearbeiten, am Ende stehen sie selbst auf der Bühne und performen. Dies ist ein ganz wichtiger Punkt.
Dass wir durch den Einsatz von KI auch neue Formen der Musikunterhaltung erleben werden, davon kann man ausgehen. Doch wie genau sich diese Entwickeln wird, muss sich noch zeigen.
Ich bin sehr gespannt, wie sich diese Technolgien weiterentwickeln. Ich selbst habe KI als Tool, bereits hier und da integriert, um mir meine Arbeit in einigen Bereichen zu erleichtern. In einigen Jahren werden diese Technologien wohl so selbstverständlich sein, wie es heute das Internet ist. Oder wir vermasseln es und Skynet oder eine andere böse Super-KI lässt die Menscheit untergehen.
Euer Grille