banner

Blog

Apr 25, 2024

Kann sich Unternehmenstechnologie durch generative KI rehabilitieren? Vishal Sikka über den richtigen Umgang mit KI und die Vermeidung generativer KI-Schlangenölverkäufer

In meinem vorherigen Gespräch mit Dr. Vishal Sikka, Gründer und CEO des trendigen KI-Startups Vianai Systems, haben wir über die Höhen und Tiefen der KI-Achterbahnfahrt gesprochen – und Sikka hat viel gesehen.

Wir gingen der Frage nach, warum Sikka diesen weithin missverstandenen Brief unterzeichnete, in dem er vor den Gefahren der KI warnte, und forderten zu dieser berüchtigten Pause auf.

Natürlich haben wir über die Probleme von LLMs gesprochen, einschließlich Halluzination und Erklärbarkeit: „Null Toleranz“ für Halluzinationen – Dr den Kontext ihrer KI-Anwendungen der nächsten Generation, wie zum Beispiel:

Aber es gibt noch mehr. Was rät Sikka Kunden, die Anbieter generativer KI bewerten? Schließlich erfordert der Unternehmenserfolg mit generativer KI ganz andere Schritte als das Experimentieren mit ChatGPT in Ihrer Freizeit.

Meine unvollständige Liste generativer KI-Unternehmenshindernisse: Risikomanagement, Probleme mit Kundendaten/-preisen, Blackbox/Erklärbarkeit, Abschwächung der technischen Einschränkungen von LLMs, Schwierigkeiten bei der Verwendung von LLMs von Drittanbietern und deren Anpassung mit Kundenschulungsdaten unter Berücksichtigung von Datenschutz und Opt -Outs, Auswirkungen auf die Kundenpreise, Vor- und Nachteile von Anwendungsfällen usw.

Das ist eine beeindruckende Liste von Hindernissen, und es ist kaum eine vollständige Liste. Und doch, wie ich Sikka sagte,Ich sehe generative KI als Chance für die Wiedergutmachung von Unternehmenstechnologien . Es scheint, als ob die Verbrauchertechnologie seit Jahrzehnten an der Spitze der Unternehmensinnovationen steht, wobei die Smartphone-App-Kultur als Beweisstück A zu sehen ist. Aber generative KI braucht dringend verantwortungsvolle Leitplanken, und all die Faktoren, die ich oben genannt habe – sind das nicht, was Unternehmen auszeichnen? ?

Wie ich Sikka sagte:

Was das Unternehmen der KI auferlegt, ist meiner Meinung nach genau das, was die KI gerade jetzt braucht, nämlich Dinge wie Sicherheit, rechtliche Aufsicht, ethische Aufsicht, ordnungsgemäße Nutzung von Daten. Eines der Dinge, die Vianai beispielsweise anspricht, die ChatGPT nicht berücksichtigt, ist: verschiedene Arten von Datenquellen, die Ihnen ein saubereres Ergebnis liefern. Ich denke, dass Sie mit diesen Tools auch einige der Erklärbarkeitsprobleme angehen, zumindest im Hinblick auf die Herkunft der Informationen.

Sikka stimmt zu: „Dies ist eine Gelegenheit für Unternehmen, den Weg zu vertrauenswürdiger und verantwortungsvoller KI zu weisen.“ Eine weitere potenzielle Komponente für eine bessere KI? Eine Form des verstärkenden Lernens. OpenAI hat auch hiervon eine Brute-Force-Version durchgeführt, um ChatGPT mit Voreingenommenheit und Bigotterie zu schützen, allerdings nicht ohne Kontroversen bei der Arbeitskräftebeschaffung. Aber theoretisch könnten Unternehmen iteratives Modelltraining nutzen, um Fachexperten in die Lage zu versetzen, die gewünschten Ergebnisse genau abzustimmen. Wie Sikka erklärt, können diese Ansätze auch das Vertrauen der Benutzer stärken:

Reinforcement Learning ist eine Möglichkeit, dies zu erreichen. Der andere Teil ist einfach Konversation. Mein Mentor hatte immer diesen wunderbaren Trick, bei dem er Sie fragte: „Lass mich das noch einmal abspielen.“ Nehmen wir an, Sie haben eine komplizierte Frage gestellt. Er würde sagen: „Lass mich das abspielen; Wollten Sie diese Frage stellen?' Sie könnten sagen: „Korrigieren Sie es.“ Und dann würde er die Frage beantworten. Natürlich war es auch eine Art Trick, weil es ihm Zeit zum Nachdenken gab.

Wir tun das [bei Vianai], wenn wir uns über die Absicht des Benutzers nicht sicher sind. Wenn Sie also eine Frage stellen, bei der es um Joins, komplexe Inner Joins oder etwas Kompliziertes über mehrere Tabellen geht, stellen wir sie Ihnen wieder vor und sagen: „Hey, haben Sie das gemeint?“ Und der Benutzer wird sagen: „Ja, das habe ich gemeint“, oder er wird es korrigieren. Das ist also eine sehr einfache Möglichkeit, die Absicht des Benutzers eindeutig zu machen oder zu verdeutlichen.

Wenn wir eine Antwort geben, sei es auf textbasierten Daten oder auf strukturierten Tabellendaten, legen wir sie den Benutzern vor und sagen: „Hier haben wir die Daten her; „Das war die Abfrage, die ausgeführt wurde, und das ist die Antwort.“ Das ist nicht einfach. Aber wir tun das – und das ist für Unternehmen notwendig, damit sie den Ergebnissen vertrauen können, die Sie ihnen vorlegen.

Was uns zu Unternehmenskunden führt – was rät Sikka? Meinem Posteingang nach zu urteilen, verfügt mittlerweile jeder der Menschheit bekannte Softwareanbieter über ein generatives KI-Tool. Jedes Startup, jeder etablierte Anbieter ist angeblich auf dem neuesten Stand.

Wie kann ein Kunde also besser verstehen, wo sich das Original befindet, und die Schwergewichte von den Prätendenten unterscheiden? Ein Teil der Antwort sind natürlich praktische Demos. Doch wie berät Sikks Kunden, die den generativen KI-Snake-Oil-Faktor vermeiden wollen? Wie er mir sagte:

Allein letzte Woche habe ich mit etwa 50 CEOs gesprochen. Am Freitag habe ich eine Rede gehalten; Ich gebe ihnen immer eine Checkliste mit Dingen, die sie Lieferanten fragen können:

Aus Sicherheitsgründen steht nun ein „Prompt-Injection-Angriff“ auf der Bedrohungsliste:

Es gibt eine neue Sache namens Prompt-Injection-Angriff, bei der die Arten von Eingabeaufforderungen, die Sie dem System übermitteln, gehackt werden können und ein bösartiges Element seine Eingabeaufforderungen in die Mitte Ihrer Eingabeaufforderungen einfügen könnte. Dann umfassen die Antworten, die Sie erhalten, diese anderen Dinge, die die Leute [in Ihre Daten] eingefügt haben. Es gibt also grundlegende Sicherheitsvorkehrungen – ohne sie sollten Unternehmen diese Produkte nicht verwenden.

Eines der besten Dinge daran, mit Sikka zu sprechen? Im Gegensatz zu einigen KI-Managern kann Sikka im Handumdrehen von den geschäftlichen Potenzialen der KI auf kulturelle Belange umsteigen. In unserer letzten Folge äußerte Sikka seine Überzeugung über die Notwendigkeit einer globalen KI-Ausbildung und erläuterte die Auswirkungen von KI auf die Arbeitsplätze. Sikka hat Unternehmen bei der Gestaltung ethischer KI-Richtlinien beraten. Obwohl solche Maßnahmen zugegebenermaßen manchmal eher symbolischer als realer Natur sein können, müssen wir irgendwo anfangen.

KI kann eine demokratisierende Kraft sein, indem sie den globalen Zugriff auf wertvolle Daten wie medizinische Informationen ermöglicht. Aber: Sikka geht es ebenso darum, das Ungleichheitspotenzial der KI einzudämmen. Er zitiert die Arbeit seiner Frau Vandana Sikka:

Meine Frau ist seit neun Jahren im Vorstand von Code.org und bringt den Leuten Computer und Codierung und all das bei. Sie hat diese Statistik: Grundsätzlich kann ein halbes Prozent der Weltbevölkerung programmieren. Wenn man großzügig ist, liegt der Wert nahe bei 1 % ... Wenn man an KI denkt, ist die Situation noch dramatisch schlimmer. Wir haben im Grunde weniger als 2 Millionen Menschen, die Ihnen ein Modell oder ähnliches bauen könnten. Und die Zahl der Menschen, die ein KI-System oder eine Plattform für maschinelles Lernen betreiben könnten, beträgt weniger als 100.000 – 100.000 von 8 Milliarden Menschen auf der Welt.

Vor diesem statistischen Hintergrund ist es unmöglich, gegen die Notwendigkeit umfassender Bildung zu argumentieren (ich habe meine Alma Mater so oft damit belästigt, dass sie wahrscheinlich einen Filter für meine E-Mails haben). Aber das Problem des Arbeitsplatzverlusts ist komplizierter – und voller kontraproduktiver Übertreibungen. Um uns mit dem Faktor KI-Arbeitsplatzverlust auseinanderzusetzen, müssen wir uns zunächst über die Leistungsfähigkeit der generativen KI einig sein – aber auch über ihre Grenzen. Bei dieser Generation von LLMs handelt es sich nicht um kognitive Systeme. Sikka, der weitaus tiefere Kenntnisse in der Geschichte der KI hat, fasst es zusammen:

Nein, [LLMs] können nicht argumentieren; das ist bei weitem nicht der Fall ... Sie sind unglaublich gute Auswendiglerner, die lernen, was schon einmal gesehen wurde – und es wiederzuverwenden.

Abgesehen von Einschränkungen sind dies immer noch wirksame Werkzeuge. Ich muss zwar noch davon überzeugt werden, dass „keine Hallukationen“ mit LLMs möglich sind, wie ich Sikka gesagt habe, aber das ist eine willkommene/mutige Behauptung, denn wenn Kunden solche Probleme haben, wird Sikkas Team davon erfahren.

Ich werde Sikkas Ansichten über die Bedrohung, die KI für Nachwuchskräfte in allen Branchen darstellt, nicht noch einmal aufwärmen, aber Sikka sieht ein enormes Potenzial für generative KI in Bereichen wie der Inhaltsgenerierung, Support/digitalen Unterstützung und insbesondere in der Computerprogrammierung. Und doch geht es bei den heutigen generativen KI-Auswirkungen mehr um einen unvollkommenen, aber sehr nützlichen Assistenten als um einen massiven Arbeitsplatzverlust. Laut Sikka:

Es ist ein sehr mächtiges Werkzeug. Ersetzt es nun Arbeitsplätze? Es gibt zwei Möglichkeiten, es zu betrachten. KI leistet zum Beispiel gute Arbeit beim Schreiben von Code oder beim Verfassen erster Entwürfe von Forschungsberichten, Aufsätzen, Verträgen, technischen Dokumenten und all diesen Dingen. Allerdings müssen Sie in fast 100 % der Fälle eine Kontrolle darüber vornehmen, was es tut, denn Sie tragen die Verantwortung. Sie können es sich ansehen und sagen: „Okay, diese Teile sind korrekt.“ Diese sind nicht korrekt. „Lass mich das reparieren, dann bin ich fertig.“ Wenn Sie also Glück haben, haben Sie 30/40/50 Prozent Ihrer Zeit gespart.

Wie weit können wir die Grenzen verschieben? Die Zeit wird es zeigen, aber Sikka hat mit Vianai seinen Rhythmus gefunden. Nachdem ich gesehen habe, wie Sikka in großen Unternehmen gearbeitet hat, ist klar, dass das Startup-Leben zu seiner Energie passt: Ideen schnell in Produkte umsetzen. In den kommenden Monaten können wir mit weiteren Produktneuigkeiten von Vianai rechnen – und weiteren dialogorientierten KI-Anwendungen.

Die Traktion kommt. Kurz vor Redaktionsschluss hörte ich von Vianais PR-Firma: „Vianai gab bekannt, dass das Unternehmen seinen ersten Hila-Enterprise-Deal mit einer der größten und angesehensten Banken in Asien abgeschlossen hat.“ Wir brauchen mehr praktische Erfahrungen aus groß angelegten LLM-Implementierungen; Ich freue mich auf die Projektaktualisierungen.

Bildnachweis – Bildnachweis – Screenshot von Dr. Vishal Sikka aus der Videowiedergabe auf vianai.com.

Ich sehe generative KI als Chance für die Wiedergutmachung von Unternehmenstechnologien
AKTIE