Dies ist ein Beispiel dafür, wie du eine LangChain-Anwendung mit einem Dockerfile einrichtest, um sie von einem GitHub-Repository aus auf den Anwendungs-Hosting-Diensten von Kinsta einzusetzen.
Das LangChain-Framework dient der Entwicklung von datengesteuerten, agentenbasierten (d.h. ein Sprachmodell interagiert mit seiner Umgebung) und differenzierten Anwendungen, die auf Sprachmodellen basieren. Weitere Informationen findest du auf der LangChain-Website.
Kinsta installiert während des Deployment-Prozesses automatisch die in deiner requirements.txt-Datei definierten Abhängigkeiten.
- Melde dich bei GitHub an und erstelle ein neues Repository aus dieser Vorlage (Use this template > Create a new repository): Kinsta – Hello World – LangChain.
- Füge in MyKinsta eine Anwendung mit dem Hello World – LangChain-Repository hinzu.
- Melde dich bei OpenAI an (erstelle ein Konto, wenn du noch keins hast). Gehe zu OpenAI API und generiere und kopiere deinen API-Schlüssel.
- Gib in den Umgebungsvariablen unter Schlüssel 1
OPENAI_API_KEY
ein und füge unter Wert 1 den API-Schlüssel ein, den du von OpenAI kopiert hast. - Im Schritt Build environment wählst du Use Dockerfile to set up container image. Der Dockerfile-Pfad und der Kontext können leer gelassen werden.
Die Anwendung ist verfügbar, sobald der Build abgeschlossen ist und die Kinsta-Willkommensseite unter der URL deiner Anwendung geladen wird.

Webserver-Einrichtung
Build-Umgebung
Wenn du deine LangChain-Anwendung erstellst, musst du im Schritt Build-Umgebung die Option Dockerdatei verwenden wählen, um das Container-Image einzurichten.
Umgebungsvariablen
Unter Umgebungsvariablen gibst du unter Schlüssel 1 OPENAI_API_KEY
und unter Wert 1 den API-Schlüssel ein, den du von Open AI kopiert hast. Wenn du andere Modelle verwendest (nicht die von OpenAI), passe den Schlüssel und den Wert nach Bedarf an.