Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Künstliche Intelligenz# Rechnen und Sprache# Maschinelles Lernen# Programmiersprachen

Einführung von APPL: Eine neue Sprache für LLM-Integration

APPL vereinfacht die Entwicklung mit grossen Sprachmodellen und nutzt eine intuitive, pythonähnliche Syntax.

― 2 min Lesedauer


APPL: KI-CodingAPPL: KI-CodingoptimierenProgrammierung entwickelt wurde.effiziente KI-Integration in dieEine neue Sprache, die für eine
Inhaltsverzeichnis

Dieses Papier stellt APPL vor, eine Prompt-Programmierungssprache, die dafür gedacht ist, traditionelle Programmierung und grosse Sprachmodell-Prompts (LLM) zu verbinden. Das Ziel ist es, Entwicklern zu helfen, Workflows zu erstellen und zu verwalten, die LLMs einbeziehen, während Klarheit und Effizienz erhalten bleiben.

APPL erlaubt es Nutzern, Prompts in Python-Funktionen einzubetten und umgekehrt. Es hat eine einfache Syntax, die mit Python übereinstimmt, was es vielen Entwicklern zugänglich macht. APPL führt Prozesse auch parallel aus, was hilft, Aufgaben schneller zu erledigen, indem LLM-Aufrufe asynchron verwaltet werden. Das bedeutet, die Nutzer müssen sich nicht selbst um die Synchronisation kümmern, was die Umsetzung erleichtert.

Die Sprache enthält Werkzeuge für das Tracing und Debugging, was es einfacher macht, Probleme zu identifizieren und Aufgaben ohne zusätzliche Kosten wieder abzuspielen. Experimente zeigen, dass APPL die Leistung von Programmen, die unabhängige LLM-Aufrufe nutzen, erheblich verbessern kann.

Das Papier diskutiert, wie LLMs immer mächtiger werden und als neue Plattformen für verschiedene Anwendungen gesehen werden. Allerdings kann die Integration dieser Modelle mit traditioneller Programmierung komplex sein. APPL geht diese Komplexität durch seine Designeigenschaften an, die Lesbarkeit und Wartbarkeit priorisieren.

Die Hauptmerkmale von APPL sind:

  1. Lesbarkeit und Flexibilität: APPL erhält die Lesbarkeit von natürlichen Sprachprompts, während es die Funktionen von Python nutzt.
  2. Automatische Parallelisierung: LLM-Aufrufe werden asynchron geplant, was die Leistung optimiert und nur wenig zusätzlichen Code vom Nutzer erfordert.
  3. Sanfter Übergang zwischen Datentypen: Die Sprache erleichtert es, Programmobjekte in Prompts umzuwandeln und sicherzustellen, dass Ausgaben den angegebenen Formaten entsprechen.

APPL hat zum Ziel, die Entwicklung von anspruchsvollen Anwendungen mit LLMs zu vereinfachen und gleichzeitig mit bestehenden Python-Tools und -Bibliotheken kompatibel zu sein. Künftige Arbeiten werden sich mit der Verfeinerung dieser Sprache und ihrer Laufzeit beschäftigen, um die KI-gesteuerte Entwicklung weiter zu verbessern.

Das Papier erkennt die Beiträge verschiedener Forscher und die finanzielle Unterstützung an, die diese Arbeit möglich gemacht haben. Es lädt zur Zusammenarbeit und zur Weiterentwicklung auf diesem Gebiet ein, um die Grenzen von KI-Anwendungen zu erweitern.

Originalquelle

Titel: APPL: A Prompt Programming Language for Harmonious Integration of Programs and Large Language Model Prompts

Zusammenfassung: Large Language Models (LLMs) have become increasingly capable of handling diverse tasks with the aid of well-crafted prompts and integration of external tools, but as task complexity rises, the workflow involving LLMs can be complicated and thus challenging to implement and maintain. To address this challenge, we propose APPL, A Prompt Programming Language that acts as a bridge between computer programs and LLMs, allowing seamless embedding of prompts into Python functions, and vice versa. APPL provides an intuitive and Python-native syntax, an efficient parallelized runtime with asynchronous semantics, and a tracing module supporting effective failure diagnosis and replaying without extra costs. We demonstrate that APPL programs are intuitive, concise, and efficient through three representative scenarios: Chain-of-Thought with self-consistency (CoT-SC), ReAct tool use agent, and multi-agent chat. Experiments on three parallelizable workflows further show that APPL can effectively parallelize independent LLM calls, with a significant speedup ratio that almost matches the estimation.

Autoren: Honghua Dong, Qidong Su, Yubo Gao, Zhaoyu Li, Yangjun Ruan, Gennady Pekhimenko, Chris J. Maddison, Xujie Si

Letzte Aktualisierung: 2024-06-18 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2406.13161

Quell-PDF: https://arxiv.org/pdf/2406.13161

Lizenz: https://creativecommons.org/licenses/by-sa/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel