Dies ist ein Beispiel dafür, wie du eine LangChain-Anwendung mit einem Dockerfile einrichtest, um sie von einem GitHub-Repository aus auf den Anwendungs-Hosting-Diensten von Kinsta einzusetzen.

Das LangChain-Framework dient der Entwicklung von datengesteuerten, agentenbasierten (d.h. ein Sprachmodell interagiert mit seiner Umgebung) und differenzierten Anwendungen, die auf Sprachmodellen basieren. Weitere Informationen findest du auf der LangChain-Website.

Kinsta installiert während des Deployment-Prozesses automatisch die in deiner requirements.txt-Datei definierten Abhängigkeiten.

  1. Melde dich bei GitHub an und erstelle ein neues Repository aus dieser Vorlage (Use this template > Create a new repository): Kinsta – Hello World – LangChain.
  2. Füge in MyKinsta eine Anwendung mit dem Hello World – LangChain-Repository hinzu.
  3. Melde dich bei OpenAI an (erstelle ein Konto, wenn du noch keins hast). Gehe zu OpenAI API und generiere und kopiere deinen API-Schlüssel.
  4. Gib in den Umgebungsvariablen unter Schlüssel 1 OPENAI_API_KEY ein und füge unter Wert 1 den API-Schlüssel ein, den du von OpenAI kopiert hast.
  5. Im Schritt Build environment wählst du Use Dockerfile to set up container image. Der Dockerfile-Pfad und der Kontext können leer gelassen werden.

Die Anwendung ist verfügbar, sobald der Build abgeschlossen ist und die Kinsta-Willkommensseite unter der URL deiner Anwendung geladen wird.

Kinsta-Willkommensseite nach erfolgreicher Installation von LangChain
Kinsta-Willkommensseite nach erfolgreicher Installation von LangChain

Webserver-Einrichtung

Build-Umgebung

Wenn du deine LangChain-Anwendung erstellst, musst du im Schritt Build-Umgebung die Option Dockerdatei verwenden wählen, um das Container-Image einzurichten.

Umgebungsvariablen

Unter Umgebungsvariablen gibst du unter Schlüssel 1 OPENAI_API_KEY und unter Wert 1 den API-Schlüssel ein, den du von Open AI kopiert hast. Wenn du andere Modelle verwendest (nicht die von OpenAI), passe den Schlüssel und den Wert nach Bedarf an.