KI verändert unsere Kreation, aber hab noch keine Angst

Anfang dieses Monats bog ein autonomes Testfahrzeug von seiner Fahrspur ab, um ein Zusammenführen des Autos zu vermeiden, und traf dann ein Motorrad auf der Fahrspur, auf die es sich bewegte. Wenn dies alles ist, was Sie über die Geschichte wissen, klingt es wie ein moralisches Entscheidungsproblem, das häufig in Diskussionen über das Verhalten künstlicher Intelligenz auftaucht: Wie entscheidet die Maschine zwischen zwei schlechten Ergebnissen, welchen Kurs sie einschlagen soll? Vermeiden Sie es, den Fußgänger zu treffen, der die Straße überquert, wenn dies bedeutet, dass Sie den Radfahrer auf dem Radweg überfahren?

Nur ist das überhaupt nicht passiert. Das von Waymo betriebene Fahrzeug hatte einen menschlichen „Sicherheitsfahrer“ hinter dem Lenkrad, der kurz vor dem Unfall die manuelle Kontrolle über das Auto übernommen hatte. Als Reaktion auf die plötzliche Bewegung des sich verschmelzenden Autos steuerte der Fahrer, um dies zu vermeiden, und sah den Motorradfahrer einfach nicht auf der angrenzenden Fahrspur. Hätte der Fahrer nichts getan, hätte das autonome Fahrzeug wahrscheinlich beide möglichen Unfälle vermieden.

Dass künstliche Intelligenz und Automatisierung letztendlich unsere Straßen sicherer machen, ist mittlerweile eine bekannte Tatsache, auch wenn es vielen von uns schwer fällt, die Idee von fahrerlosen Autos vollständig zu akzeptieren. Sprache übersetzen, Aktien kaufen und verkaufen, Wettervorhersagen - all dies sind Bereiche, in denen die Beiträge von AI von offensichtlichem Nutzen sind. Aber der Aufstieg der KI geschieht nicht nur an Orten, an denen menschliches Versagen häufig ist. Weit davon entfernt ist die KI bereits darauf trainiert, eines der Dinge zu tun oder zumindest nachzuahmen, die uns menschlich machen: unsere Kreativität.

Eine helfende Roboterhand

Im Oktober wurde ein KI-Gemälde für über 400.000 US-Dollar versteigert. Die KI, die vom französischen Kunstkollektiv Obvious verwendet wurde, wurde auf 15.000 Porträts zwischen dem 14. und 20. Jahrhundert trainiert, wobei ihre Stile untersucht und in ihre eigenen integriert wurden. Das ist Kreativität mit roher Gewalt. Eine Maschine kann nicht fühlen, aber sie schläft auch nicht. Geben Sie ihm genügend Daten zum Knirschen, und Sie können etwas zurückgeben, das ehrlich gesagt kreativ erscheint.

Christies Auktion ai Gemälde Timothy A. Clary / Getty Images

Verständlicherweise kann diese Art von KI arbeitende Kreative beunruhigen, aber selbst wenn Maschinen ihre eigenen Skripte schreiben und ganze Alben produzieren, können sie menschliche Künstler nicht so schnell ersetzen. Und mit abnehmender Neuheit gibt es erhebliche Zweifel daran, dass andere von KI produzierte Kunstwerke die gleiche Anerkennung erhalten wie Obvious.

Glücklicherweise sind „freundlichere“ KIs bereits hier, um unsere Arbeit nicht für uns zu erledigen, sondern um unsere Arbeit zu erleichtern. Künstliche Intelligenz stand in den letzten zwei Jahren bei Adobe MAX im Mittelpunkt, der jährlichen Show und Konferenz, die das Unternehmen hinter Photoshop, Lightroom, After Effects und vielen anderen kreativen Anwendungen veranstaltet. Die KI-Engine von Adobe heißt Sensei und unterstützt jetzt eine Reihe von Tools in der gesamten Creative Cloud-Suite.

Die KI wurde auf 15.000 Porträts zwischen dem 14. und 20. Jahrhundert trainiert. Das ist Kreativität mit roher Gewalt.

In einem Interview mit Digital Trends bei MAX in diesem Jahr verglich Tom Hogarty, Senior Director Digital Imaging bei Adobe, die Ankunft von AI mit der Umstellung von PC auf mobile Geräte als kreative Werkzeuge. Adobe hatte gerade Photoshop für iPad und Premiere Rush, eine Videobearbeitungs-App für mehrere Geräte, vorgestellt.

"Das war eine seismische Neuausrichtung der Ressourcen und Prioritäten", sagte Hogarty gegenüber Digital Trends. "Ich denke, die Verlagerung auf KI und ML [maschinelles Lernen] ist derzeit eine gleich große tektonische Verschiebung in der Branche."

Adobe stellt sich vor, dass Sensei die Lücke zwischen Mensch und Maschine schließt, um eine Aufgabe, die konzeptionell einfach, aber mechanisch schwierig ist, so einfach zu erledigen wie zu überlegen ist.

Menschen sind von Natur aus gut in bestimmten Aufgaben, bei denen Maschinen traditionell schlecht funktionieren, z. B. beim Erkennen von Objekten auf einem Foto. Computer hingegen eignen sich hervorragend zum Katalogisieren, Ändern oder Entfernen und Ersetzen dieser Objekte. Ein Mensch muss sie jedoch zuerst klar definieren, indem er entweder Schlüsselwörter beim Katalogisieren hinzufügt oder die Grenzen eines Objekts durch das Objekt festlegt Auswahl- und Maskierungsprozess.

Diese mechanischen Aufgaben erfordern oft eine akribische Liebe zum Detail und es dauert frustrierend lange, bis ein Mensch sie erledigt. Das Hinzufügen von Schlüsselwörtern, eine Voraussetzung für die Organisation von Bildern anhand ihres Inhalts, ist ein derart entmutigender Prozess, dass nur wenige Fotografen dies zuverlässig tun. Josh Haftel, Produktmanager von Lightroom, kennt den Kampf gut.

"Sie als Mensch werden wahrscheinlich viel besser [als ein Computer] sagen können:" Stuhl, Kamera, Telefon, Sonnenbrille, Laptop ", aber es wird ewig dauern", sagte Haftel gegenüber Digital Trends.

Adobe

Aber was wäre, wenn der Computer Fotos genauso gut mit Schlüsselwörtern versehen könnte wie Sie? Oder was ist, wenn das Entfernen eines Objekts nur das Klicken erfordert? Mit der AI-fähigen Suche in Adobe Lightroom CC und dem Tool "Betreff auswählen" in Photoshop CC ist dieser Traum nur eine Realität. Diese Tools sind noch nicht zu 100 Prozent genau, aber sie geben Kreativen bereits einen schnellen Vorsprung, was zeitaufwändige Aufgaben wäre.

Während die von Sensei betriebene Suche von Anfang an in Lightroom CC war, machte sie dieses Jahr mit der zusätzlichen Gesichtserkennung einen großen Sprung nach vorne. Sensei kann Personen - und andere Objekte - mit einer Geschwindigkeit von Zehntausenden von Bildern pro Sekunde erkennen und organisieren. Die potenzielle Zeitersparnis ist enorm.

Die KI-Bemühungen von Adobe gehen auch über Standbilder hinaus. Das kommende Tool zum Ausfüllen von Inhalten in After Effects entfernt tatsächlich ein Objekt aus jedem Videobild und füllt den Hintergrund nahtlos mit minimalen Benutzereingaben aus. Dies in Aktion zu sehen, ist ein bisschen umwerfend, als würde man zusehen, wie ein Zauberer ein Kaninchen aus einem Hut zieht - Sie wissen, dass es eine Erklärung dafür gibt, aber Sie können es nicht herausfinden.

Die Spitze des Eisbergs

KI ist keine Magie; Es ist Wissenschaft. Trotzdem weiß niemand genau, wie KI das tut, was sie tut, und das ist eine potenziell erschreckende Voraussetzung. Der Computer trainiert sich selbst; Ein Mensch muss ihm lediglich den ersten Trainingsdatensatz geben. Interessant, wenn auch nicht gerade überraschend, ist, dass in diesen Trainingsdaten häufig Probleme bei der KI-Programmierung auftreten, und zwar in Form menschlicher Vorurteile, die in die Maschine eindringen. Wenn die Daten voreingenommen sind, kann der resultierende Algorithmus Entscheidungen treffen, die ungenau sind, sogar sexistisch oder rassistisch.

KI ist keine Magie; Es ist Wissenschaft. Trotzdem weiß niemand genau, wie KI das macht, was sie macht.

"Es wird wirklich schwierig sein, keine Vorurteile zu haben, es wird immer da sein", sagte Jamie Myrold, Vice President Experience Design bei Adobe, gegenüber der Presse auf der MAX 2018. "Aber es ist etwas, auf das wir uns definitiv konzentrieren, und es ist eine weitere Fähigkeit, die." Designer müssen als etwas betrachten, das sie definitiv besitzen, und nicht nur zulassen, dass die Black Box des Algorithmus sie erschreckt. “

So beängstigend es auch sein mag, diese unerkennbare Natur der KI macht sie auch so aufregend. Das Potenzial der KI, Probleme zu lösen, ist nahezu unbegrenzt. Solange wir Maßnahmen zur Identifizierung und Korrektur von Vorurteilen treffen, kann dies viel Gutes bewirken und gleichzeitig unser Leben erleichtern.

Für Kreative, insbesondere für diejenigen, die ihr Geld mit kreativen Aktivitäten verdienen, besteht die Sorge, dass eine KI einen Menschen angemessen imitieren kann. Warum sollten Sie einen Grafiker beauftragen, Ihnen ein neues Logo zu entwerfen, wenn Sie nur einige Parameter an einen Computer anschließen und ihn einen ausspucken lassen können, der vollkommen in Ordnung ist?

Wir sind noch weit von dieser Realität entfernt, aber es ist nicht schwer zu sehen, wo wir uns jetzt befinden, und dieses Szenario als Eventualität zu extrapolieren. Bereits jetzt kann AI in Adobe Lightroom Fotos mit überraschender Geschicklichkeit automatisch verbessern - Schatten heben, Glanzlichter wiederherstellen, Belichtung und Sättigung anpassen.

Skylum Luminar Sky Enhancer

Während die Implementierung von Adobe darauf abzielt, Fotografen einen soliden Ausgangspunkt für zusätzliche Bearbeitungen zu bieten, sind andere Entwickler bereits darüber hinausgegangen. Skylum, früher Macphun, verfügt in seiner Luminar-Fotobearbeitungssoftware über mehrere AI-gesteuerte Anpassungen, um alles zu tun, von der automatischen Verbesserung des Himmels bis zum Hinzufügen realistischer Sonnenstrahlen zu einem Bild. Sie können ein Foto jetzt mit einem Minimum an Wissen über Fotoretuschen dramatisch verändern.

Dies bedeutet nicht unbedingt Probleme für arbeitende Kreative. Wir können hier Vergleiche mit dem Aufstieg der digitalen Fotografie, der Videobearbeitung von Heim-PCs, Smartphones und einer Reihe anderer Technologien ziehen, die die Messlatte für den Einstieg in die professionelle Produktion von Inhalten drastisch gesenkt haben. Während die Kreativbranche immer wieder neu gemischt wurde, haben sie immer überlebt. Ob sie dafür besser oder schlechter sind oder nicht, hängt davon ab, wen Sie fragen, aber die Menge und Vielfalt der kreativen Inhalte war noch nie so hoch wie jetzt.

Und trotz seiner Erfolge steht die KI immer noch vor großen Herausforderungen. Derzeit in der Technologievorschau ist die Funktion "Beste Fotos" von Adobe Lightroom eine weitere Technologie von Sensei mit großem Zeiteinsparungspotenzial. Es analysiert Ihre Bilder anhand einer Vielzahl von Parametern, um Ihnen automatisch die besten zu zeigen, und berücksichtigt dabei auch Ihre manuellen Bewertungen. Schon in seinem frühen Zustand funktioniert es beeindruckend gut, zeigt aber auch die aktuellen Grenzen der KI an

"Wo maschinelles Lernen zumindest heute fehlschlägt, ist das Verstehen des emotionalen Kontextes."

"Wo maschinelles Lernen zumindest heute fehlschlägt, ist das Verstehen des emotionalen Kontextes", erklärte Haftel. „Die Maschine weiß also nicht, dass dieses wirklich dunkle, körnige Bild ein Bild Ihrer Oma ist und es das letzte Foto ist, das Sie von ihr haben. Und das wird es niemals sagen können. “

Haftel fügte schnell hinzu: "Ich sollte nie nie sagen - niemals nie sagen - aber zumindest kann es das heute nicht."

Hat KI Grenzen? Werden wir jemals ein Plateau in der KI-Entwicklung erreichen? Andrew Page von Nvidia, Produktmanager im Bereich Media and Entertainment Technologies des Unternehmens, glaubt dies nicht. Nvidia-Server unterstützen das gesamte Adobe Sensei-Training. Die neuesten RTX-Grafikkarten des Unternehmens enthalten Tensorkerne, die speziell für die Beschleunigung von KI-Befehlen entwickelt wurden. Nvidia sieht eindeutig, dass KI in seiner Zukunft eine große Rolle spielt.

"Wir stecken noch in den Kinderschuhen von [AI]", sagte Page gegenüber Digital Trends. „Da der Computer sich selbst beibringt, wie man Dinge macht, gibt es wirklich nie ein Maß an Arbeit. Genau wie wir als Menschen sind wir nie mit dem Lernen fertig. Ich denke, wir sehen nur die Spitze des Eisbergs, was KI für Kreative oder auch für andere Branchen tun kann. “

Eine mögliche Verschiebung ist der Übergang von einer vom Server geschulten KI zu einer lokal geschulten KI, die besser auf die individuellen Bedürfnisse oder den künstlerischen Stil eines einzelnen Benutzers eingehen kann. Wenn maschinelles Lernen auf einem Heim-PC durchgeführt werden kann, anstatt ein Rechenzentrum zu benötigen, eröffnet es neue Möglichkeiten für die KI-Entwicklung. Derzeit erschweren die Rechenanforderungen und die Größe der Trainingsdatensätze das lokale Training für alle außer den einfachsten Aufgaben. Dies wird sich jedoch wahrscheinlich mit der Zeit ändern.

Wie dies alles abläuft, kann dazu führen, dass sich unsere Definition von Kreativität ändert. Haftel von Adobe hat es so formuliert: „Wir können uns auf die nächste Stufe der Kreativität konzentrieren, ohne dass Software manuell verwendet werden muss, um Kunst zu machen. Wir wissen nicht, was das sein wird, aber unsere Aufgabe bei Adobe ist es, es kontinuierlich zu unterstützen und zu stärken. “