Perplexity kündigt Aktualisierungen der KI-Suche und Code-Lama-Chat an

Perplexity kündigte ein Update seiner Copilot-Funktion mit GPT-3.5 Turbo-Feinabstimmung von OpenAI und der Einführung von Code Llama in Perplexitys LLaMa-Chat an.

Dies bedeutet ein reaktionsschnelleres und effizienteres KI-gestütztes Sucherlebnis ohne Qualitätseinbußen.

Für Entwickler bedeutet dies Zugriff auf Metas neuestes Open-Source-LLM (Large Language Model) zum Codieren innerhalb von 24 Stunden nach seiner Veröffentlichung.

Verbessern Sie Geschwindigkeit und Genauigkeit mit der GPT-3.5 Turbo-Feinabstimmung

Den Tests von Perplexity zufolge liegt das fein abgestimmte GPT-3.5-Turbo-Modell im menschlichen Ranking gleichauf mit dem GPT-4-basierten Modell.

Dies könnte Copilot-Benutzern mehr Vertrauen in die von Perplexity bereitgestellten Antworten geben.

Eine der bemerkenswerten Verbesserungen ist die Reduzierung der Modelllatenz um das Vier- bis Fünffache. Dadurch verkürzte sich die Zeit bis zur Bereitstellung von Suchergebnissen um fast 80 %.

Schnellere Reaktionszeiten könnten das Benutzererlebnis erheblich verbessern, insbesondere für diejenigen, die nahezu sofortige Antworten auf kritische Fragen benötigen.

Der Übergang zum fein abgestimmten GPT-3.5-Modell sollte auch die Inferenzkosten senken – den Rechenaufwand für die Erstellung von Vorhersagen mithilfe eines trainierten maschinellen Lernmodells.

Die Einsparungen würden es Perplexity ermöglichen, in zusätzliche Verbesserungen zu investieren und sicherzustellen, dass Benutzer weiterhin neue Funktionen und eine bessere Leistung erhalten.

Perplexity-Benutzer können außerdem PDF-Dateien hochladen, Suchergebnisse auf bestimmte Quellen konzentrieren und ein KI-Profil einrichten, um Suchergebnisse zu personalisieren.

Screenshot von Perplexity, August 2023

Das KI-Profil ähnelt in gewisser Weise dem ersten Teil der benutzerdefinierten Anweisungen von ChatGPT.

Eingeloggte Benutzer können Copilot bis zu fünf Mal pro Stunde kostenlos testen. Mit einem monatlichen Abonnement von 20 US-Dollar können Perplexity Pro-Benutzer Copilot 300 Mal pro Tag testen und haben die Möglichkeit, zu GPT-4 zu wechseln.

Einführung von Code Llama Intstruct in Perplexity Labs LlaMa Chat

Zusätzlich zu den Aktualisierungen der KI-gestützten Suche von Perplexity kündigte Perplexity Code Llama im Perplexity Labs LlaMa Chat an. Code Llama ist ein Coding-LLM von Meta AI, das in den LlaMa-Chat von Perplexity integriert ist, um Antworten auf technische Fragen zu verbessern.

Benutzer können auf das Open-Source-LLM zugreifen und es bitten, eine Funktion zu schreiben oder einen Codeabschnitt zu klären. Das Instruct-Modell von Code Llama ist speziell darauf abgestimmt, Eingabeaufforderungen in natürlicher Sprache zu verstehen.

Durch die schnelle Hinzufügung von Code Llama zum Perplexity Labs LlaMa Chat können Entwickler seine Nützlichkeit fast unmittelbar nach der Ankündigung seiner Verfügbarkeit durch Meta testen.

Perplexity kündigt Aktualisierungen der KI-Suche und Code-Lama-Chat anScreenshot von Perplexity Labs, August 2023

Die Zukunft der KI-Zusammenarbeit

Die neuesten Updates für Perplexitys KI-gestützte Suche Copilot mit einem fein abgestimmten GPT-3.5-Turbo-Modell und die Einführung des Code-Llama-Chats zeigen, wie schnell sich KI-Produkte verbessern, wenn große Technologieunternehmen zusammenarbeiten.


Ausgewähltes Bild: Poca Wander Stock/Shutterstock


source site

Leave a Reply