In einem aktuellen Bericht, der die Fortschritte in der künstlichen Intelligenz dokumentiert, schätzt Goldman Sachs, dass über 300 Millionen Arbeitsplätze durch KI verdrängt werden könnten, und genauer gesagt, dass bis zu 44 % der juristischen Aufgaben mithilfe von KI erledigt werden könnten. Ob Sie dieser Einschätzung zustimmen oder nicht, es ist klar, dass KI und leicht zugängliche große Sprachmodelle einen großen Einfluss auf die Rechtsbranche haben werden.
Inspiriert von der Arbeit von Matt Bornstein Und Rajko Radovanovic bei a16z und ihr Artikel Neue Architekturen für LLM-AnwendungenDieser Beitrag baut auf dem Original auf und versucht, die Methoden und die Architektur darzulegen, die zum Aufbau eines LLM-Betriebssystems für die Rechtsbranche verwendet werden können. Der unten beschriebene Technologie-Stack befindet sich noch in einem frühen Stadium und kann sich im Zuge der Weiterentwicklung der zugrunde liegenden Technologie ändern. Wir hoffen jedoch, dass es als nützliche Referenz für Entwickler dienen wird, die derzeit mit LLMs im juristischen Bereich arbeiten.
Hier ist eine Liste gängiger LLM-Tools und derjenigen, die für unseren Rechts-LLM-Anwendungsfall ausgewählt wurden.
*Quelle: https://a16z.com/2023/06/20/emerging-architectures-for-llm-applications/
Lernen im Kontext
Entgegen der landläufigen Meinung müssen Sie kein KI-Experte oder Ingenieur für maschinelles Lernen sein, um die Leistungsfähigkeit der KI aufzubauen und zu nutzen. Es gibt viele Möglichkeiten, mit LLMs zu bauen, darunter das Training von Modellen von Grund auf, die Feinabstimmung von Open-Source-Modellen oder die Verwendung gehosteter APIs. Der Stack und die Methoden, die wir ausgewählt haben, basieren auf Lernen im Kontextein zunehmend verbreitetes Designmuster.
Um dies noch weiter zu vertiefen, macht kontextuelles Lernen das „Trainieren“ oder Eingeben großer Datenmengen in Basismodelle wie GPT-4 oder BARD überflüssig. Stattdessen bietet es die Möglichkeit, nur die Informationen zu verwalten und zu übertragen, die für die unmittelbare Anfrage relevant sind.
Angesichts der Datenschutzbedenken, der Kosten und der Dynamik der Daten sowie der umfangreichen ML-Expertise und erforderlichen Ressourcen ist eine Feinabstimmung möglicherweise nicht immer der optimale Ansatz, insbesondere beim Umgang mit sensiblen oder vertraulichen Daten. Darüber hinaus ist es wichtig zu bedenken, dass bei der Feinabstimmung eine bestimmte Information typischerweise etwa zehnmal im Trainingssatz auftauchen muss, bevor ein Sprachmodell sie behalten kann.
Allerdings mit dem Aufkommen moderner Fundamentmodelle, die über ein ausreichend großes Kontextfenster verfügen, Die Kapazität zur Aufnahme erheblicher Datenmengen wurde erheblich verbessert. Dieser Fortschritt ermöglicht den Einsatz von kontextuellem Lernen und Vektoreinbettungen – einem hochspezialisierten Werkzeug, das weiter unten näher erläutert wird –, um Daten mit erhöhter Effizienz, Datenschutz und einfacherer Verarbeitung zu verarbeiten. Im Bereich der Rechtskonformität erleichtert dieser Ansatz die Verwendung von Vektoreinbettungen, deren Kontext ausschließlich von Ihrem spezifischen System interpretiert werden kann. Diese einzigartige Funktion schafft eine starke Verteidigungslinie für vertrauliche oder privilegierte Informationen. Entscheidend ist, dass beim Navigieren in relativ kleineren Datensätzen die Ergänzung jeder Eingabeaufforderung mit allen erforderlichen Kontextinformationen häufig die herkömmliche Feinabstimmung eines Sprachmodells übertrifft.
Sobald ein Language Learning Models (LLMs) mit diesen Kontextdaten vorbereitet ist – die als System- oder Benutzernachricht über den Prompt-API-Aufruf übergeben werden – ermöglicht das System eine „Konversation“ mit den Daten und ermöglicht auf Anfrage Zusammenfassungen.
Obwohl der bereitgestellte Kontext jetzt zum Erstellen von Antworten verwendet wird, ist es wichtig zu beachten, dass das zugrunde liegende Modell diesen Kontext nicht wirklich „gelernt“ hat, da seine Parameter unverändert bleiben. Durch diesen Prozess wird der LLM vorübergehend geerdet und personalisiert, wodurch er in die Lage versetzt wird, auf Eingabeaufforderungen zu reagieren, die in den Daten vor dem Training nicht enthalten sind.
Dieser innovative Ansatz eröffnet wichtige Anwendungsfälle für LLMs, macht sie zugänglicher und ermöglicht es Rechtspraktikern, ihre Datenschutzverpflichtungen einzuhalten.
Die drei Komponenten eines „im Kontext“-Workflows sind:
- Datenvorverarbeitung / Einbettung / Datenbank: Diese Phase umfasst die Aufbewahrung privater Daten, sei es in einem unstrukturierten oder strukturierten Format, für den zukünftigen Abruf. Herkömmlicherweise werden Dokumente in Segmente unterteilt und ein Sprachmodell (LLM) wird verwendet, um Vektoreinbettungen aus diesen Segmenten zu erstellen. Diese Einbettungen werden dann in einer Vektordatenbank gespeichert, einem speziellen Datenbanktyp zur Verwaltung solcher Daten. Diese Datenbank ist weiter in relevante Namespaces segmentiert, die bei der Festlegung von Kontextgrenzen helfen. Aus Systemsicht bildet die Vektordatenbank den wichtigsten Teil der Vorverarbeitungspipeline. Es trägt die Verantwortung, potenziell Milliarden von Einbettungen, auch Vektoren genannt, effizient zu speichern, zu vergleichen und abzurufen. Zu diesem Zweck verwenden wir Tannenzapfen.
- Zeitnaher Aufbau/Abruf: Als Reaktion auf die Benutzerinteraktion wird eine Anfrage formuliert. Diese Anfrage wird dann in eine Vektoreinbettung umgewandelt und an den Vektorspeicher im Speicher gesendet, um alle zugehörigen Daten abzurufen. Diese relevanten Daten werden zusammen mit der Benutzeranfrage und dem aus dem Kontextspeicher extrahierten Kontext in die Eingabeaufforderung integriert, die anschließend an das Language Learning Model (LLM) weitergeleitet wird. Die in der aktuellen Sitzung generierten Eingabeaufforderungen und Antworten werden in Vektoreinbettungen umgewandelt und im Vektorspeicher des Speichers gespeichert. Diese gespeicherten Einbettungen können immer dann abgerufen werden, wenn sie semantische Relevanz für zukünftige LLM-Interaktionen haben. An diesem Punkt werden Orchestrierungs-Frameworks wie LangChain von entscheidender Bedeutung, da sie zwei Schlüsselfunktionen erfüllen: das Abrufen kontextbezogener Daten aus der Vektordatenbank und die Verwaltung des Speichers über mehrere LLM-Interaktionen hinweg. Dieser gesamte Prozess stellt sicher, dass das System nicht nur angemessen auf Benutzerinteraktionen reagiert, sondern auch, dass es seine Reaktionen bei jeder weiteren Interaktion weiterentwickelt und verfeinert.
- Sofortige Ausführung/Schlussfolgerung: Die Eingabeaufforderungen und Kontextdaten werden zur Inferenz an die Basismodelle übermittelt (OpenAI ist führend unter den Sprachmodellen). gpt-4 oder gpt-4-32k Modell). Derzeit verwenden wir gpt-3.5-turbo-16k-0613: Es ist etwa 50-mal günstiger und deutlich schneller als GPT-4 und bietet ein ausreichend großes Kontextfenster, um qualitativ hochwertige Antworten zu generieren, die für die Benutzeranfrage relevant sind.
Schließlich müssen auch die statischen Teile von LLM-Apps (also alles andere als das Modell) irgendwo gehostet werden. Wir nutzen AWS zum Hosten aller unserer LLM-Apps.
Lawpath KI
Über 87 % der Kleinunternehmen weltweit haben keinen Zugang zu juristischen Dienstleistungen. Die Mission von Lawpath besteht darin, die Funktionsweise des Gesetzes gerechter und für kleine Unternehmen zugänglicher zu machen. Technologie ist ein Schlüsselelement dieses Puzzles, da sie es uns ermöglicht, Schnittstellen zu schaffen, über die unsere Benutzer rechtliche Aufgaben selbstbewusst erledigen können. Bisher wurden solche Schnittstellen von Kunden genutzt, um Unternehmen zu gründen, gesetzliche Compliance-Anforderungen zu erfüllen, komplexe Rechtsabläufe zu verwalten, Rechtsverträge automatisch auszufüllen und Rechtsberatung auf Abruf zu erhalten. Mit über 350.000 Unternehmen, die unsere Plattform nutzen, und über 25 Millionen Datenpunkten ist Lawpath ideal aufgestellt, um die Leistungsfähigkeit der LLM-Technologie zur Verbesserung der Rechtsdienstleistungen zu nutzen.
Wie sollte die Struktur meines neuen Unternehmens aussehen? Welche Art von Marke soll ich erwerben? Welche Klauseln sollte ich in meinen Arbeitsvertrag aufnehmen? Wie kann ich meinen Mietvertrag kündigen? Welcher Kündigungsprozess ist für meinen Softwaredienst geeignet? Soll ich dieses Dokument unterschreiben?
Die Beantwortung dieser Fragen konnte bis vor Kurzem nur einem Anwalt anvertraut werden. Die Technologie hat es uns ermöglicht, den Benutzer bzw. Kunden als Haupttreiber und Entscheidungsträger im Umgang mit dem Gesetz neu zu positionieren. Die oben dargelegte Leistungsfähigkeit von LLMs ermöglicht es den Benutzern, sich weiterzubilden und effizient auf die Antworten auf ihre wichtigen Fragen zuzugreifen.
Dies kann in großem Maßstab und auf zunehmend maßgeschneiderte Weise erreicht werden. Lawpath AI kombiniert spezifische, mit einem Benutzer verknüpfte Daten und überlagert sie dann mit Daten von Benutzern mit ähnlichen Merkmalen, um die am besten geeignete Anleitung zu erstellen. Nehmen wir an, Sie sind ein SaaS-Startup in der Wachstumsphase mit 20 Mitarbeitern und Sitz in Sydney. Wir identifizieren Datenpunkte in übereinstimmenden Kategorien und stellen Ihnen die Informationen bereit, die für Benutzer in diesen Kategorien am nützlichsten waren, z. B. die von ihnen verwendeten Rechtsdokumente, die Art der Offenlegungen, die sie gegenüber ASIC und der ATO gemacht haben, und die Schwachstellen, die sie dazu veranlasst haben sich rechtlich beraten lassen.
Tief unter den Schichten der Lawpath-Anwendung bildet unser Orchestrierungs-Framework – der Lawpath Cortex – das Nervenzentrum der Lawpath-KI. Es verkettet alle Elemente des Stapels miteinander. Lawpath Cortex ist darauf ausgelegt, ein personalisiertes Benutzererlebnis zu bieten und gleichzeitig absolute Privatsphäre zu gewährleisten. Es handelt sich um eine Speicherbank, einen Kontextanbieter und vieles mehr, die alle daran arbeiten, jedem Benutzer einen maßgeschneiderten Service bereitzustellen.
Was den LLM-Stack von Lawpath von der Masse abhebt, ist seine beispiellose Personalisierung. Es wird nicht einfach nur eine Standard-Rechtsberatung produziert. Stattdessen erstellt es eine maßgeschneiderte Rechtsreise für jeden Benutzer, indem es Benutzerdaten auf der Plattform vergleicht und maßgeschneiderte Lösungen anbietet. Es ist, als hätte man rund um die Uhr einen persönlichen Rechtsberater auf Abruf.
Egal, ob Sie ein Kleinstadtunternehmen oder ein expandierendes Technologieunternehmen sind, der LLM-Stack von Lawpath macht Rechtsprozesse weniger einschüchternd und zugänglicher. Es geht nicht nur darum, Antworten zu geben. Es geht darum, Ihnen die Werkzeuge an die Hand zu geben, mit denen Sie sich sicher in Ihrem einzigartigen rechtlichen Terrain zurechtfinden können.
Hauptmerkmale von Lawpath AI
Dokumentenprüfung – Überprüfen Sie Dokumente, die Sie erstellt haben oder zu deren Unterzeichnung Sie aufgefordert wurden, mithilfe unserer Überprüfungsfunktion. Identifizieren Sie Probleme mit Klauseln und finden Sie in komplexen Dokumenten die benötigten Antworten.
Fragen – Stellen Sie Fragen und erhalten Sie rechtliche Antworten, die speziell auf Ihr Unternehmen und seine Merkmale zugeschnitten sind.
Vereinfachen – Unterschreiben Sie nie wieder eine Vereinbarung, die Sie nicht verstehen. Lawpath AI liefert klare und prägnante Erklärungen zu Rechtsdokumenten und erleichtert Ihnen so das Verständnis komplexer Klauseln und Inhalte.
Übersetzen – Sie können jetzt juristische Dokumente in 31 Sprachen übersetzen und so sicherstellen, dass Sie juristische Dokumente in einer Sprache lesen und verstehen können, mit der Sie vertraut sind.
Empfehlen/Benachrichtigungen – Sie wissen nicht, was Sie als Nächstes tun sollen? Sie erhalten personalisierte nächste Schritte und automatische Benachrichtigungen zu wichtigen Terminen, missbräuchlichen Klauseln und vielem mehr.
Abschluss
Die Rechtsbranche ist mit dem Aufkommen fortschrittlicher Sprachmodelle und KI reif für Umwälzungen. Es ist klar, dass diejenigen, die diese Technologie nutzen, einen Wettbewerbsvorteil auf dem Markt haben und besser positioniert sind, um positive Veränderungen für die Benutzer voranzutreiben. Der in diesem Artikel beschriebene LLM-Stack ist nur eine mögliche Architektur zum Aufbau eines LLM-Betriebssystems für die Rechtsbranche. Die Möglichkeiten für LLMs sind endlos und wir sind gespannt, was die Zukunft mit der weiteren Weiterentwicklung dieser Technologien bereithält.
Ob Sie ein Unternehmen sind, das nach einer neuen Möglichkeit sucht, seine rechtlichen Anforderungen zu erfüllen, ein Rechtsbegeisterter, der auf dem neuesten Stand der Rechtstechnologie arbeiten möchte, oder ein Investor, der glaubt, dass die 1-Billionen-Dollar-Rechtsbranche für Umwälzungen bereit ist – schauen Sie vorbei bei dem, was wir bei Lawpath AI aufbauen.