Module NetSuite N/llm

 

Le module N/llm apporte la puissance de l'IA générative dans votre environnement NetSuite SuiteScript. Grâce à lui, vous pouvez envoyer des requêtes à de grands modèles de langage (LLM) pris en charge par NetSuite et utiliser les résultats générés par l'IA directement dans vos scripts. Qu'il s'agisse de générer du contenu, d'améliorer les messages-guides ou de tirer parti de la génération augmentée par récupération (RAG) et de l'intégration, le module N/llm rend les scripts NetSuite plus intelligents, plus rapides et plus dynamiques.

Débutez votre projet aujourd’hui

 

Que fait le module N/llm ?

Considérez le module N/llm comme votre copilote IA pour SuiteScript. Il connecte vos scripts aux services d'IA générative d'Oracle Cloud Infrastructure (OCI), ce qui vous permet de.. :

  • Générer du contenu à la demande avec llm.generateText().
  • Évaluer les invités stockés dans le Studio Prompt à l'aide de llm.evaluatePrompt().
  • Gérer les messages-guides et les actions d'amélioration du texte par programme.
  • Introduire des documents dans le LLM pour obtenir des réponses plus précises grâce au support RAG.
  • Incorporer du texte dans des vecteurs d'intégration pour la recherche sémantique, les moteurs de recommandation ou la classification.
  • Diffuser les réponses en temps réel au lieu d'attendre la sortie complète.
  • Suivez votre utilisation mensuelle gratuite pour les appels de texte et d'intégration.

Principales caractéristiques du module N/llm

Génération de contenu

Utilisez llm.generateText(options) pour créer des réponses pilotées par l'IA en fonction de vos réponses. Parfait pour générer des descriptions de produits, des résumés ou des réponses automatisées.

Alias: llm.chat(options)

Évaluation des réponses avec Studio Prompt

Si vous gérez des invités réutilisables dans Studio Prompt, vous pouvez les rentrer directement dans vos scripts à l'aide de llm.evaluatePrompt(options). Cela vous permet de transmettre dynamiquement des variables aux invités stockées tout en conservant la cohérence des paramètres du modèle.

Alias: llm.executePrompt(options)

Retrieval-Augmented Generation (RAG)

Allez au-delà des réponses génériques de l'IA en fournissant vos propres documents lorsque vous rentrez llm.generateText(options). Le modèle utilisera ces documents pour le contexte et renverra des citations montrant l'origine de ses réponses.

Intégrer le support

Utilisez llm.embed(options)  pour transformer le texte en intégrations vectorielles. Ceux-ci peuvent permettre des cas d'utilisation avancés tels que :

  • Recherche sémantique dans NetSuite

  • Les moteurs de recommandation de produits ou de contenus

  • Le clustering et la classification

Les embeddings disposent de leur propre quota mensuel gratuit, distinct de la génération de texte.

Streaming des réponses

Plus besoin d'attendre la sortie complète, llm.generateTextStreamed(options et llm.evaluatePromptStreamed(options) permettent à vos scripts de streamer les réponses au fur et à mesure qu'elles sont générées, ce qui permet des interactions en temps réel.

Alias:

llm.chatStreamed(options)

llm.executePromptStreamed(options)

Objets et membres

Le module N/llm fournit plusieurs objets avec lesquels vous pouvez interagir dans vos scripts :

  • llm.ChatMessage: Messages de chat échangés avec le LLM

  • llm.Citation: Citations montrant d'où les réponses tirent leur contexte

  • llm.Document:  Documents fournis pour le RAG

  • llm.EmbedResponse: Réponse aux appels d'intégration

  • llm.Response / llm.StreamedResponse: Résultats standard et en continu du LLM

  • llm.Usage: Utilisation du jeton par demande
     

Meilleures pratiques et considérations

  • Valider les résultats de l'IA: L'IA générative est puissante mais n'est pas toujours précise à 100 %. Il faut toujours valider avant d'utiliser le contenu généré par l'IA dans la production.

  • Disponibilité régionale: N/llm n'est disponible que dans certaines régions de NetSuite. Vérifiez la disponibilité avant de planifier.

  • Suivi de l'utilisation: Utilisez llm.getRemainingFreeUsage() et llm.getRemainingFreeEmbedUsage() pour surveiller votre quota libre.

  • Exploiter les alias et les promesses: La plupart des méthodes ont des alias plus faciles à utiliser et des versions asynchrones basées sur des promesses.

Exemples de cas d'utilisation dans NetSuite

Générez à la volée des descriptions de produits pour les nouvelles UGS

Utilisez RAG pour répondre aux questions du service client avec des documents internes

Intégrez des notes de vente pour une recherche et des recommandations plus intelligentes

Diffusez des suggestions alimentées par l'IA dans des Suitelets ou des interfaces utilisateur personnalisées

Démarrez avec NetSuite AI

Le module N/llm ouvre la voie à la personnalisation NetSuite de nouvelle génération, alimentée par l'IA. De l'automatisation améliorée à la prise de décision plus intelligente, il donne aux développeurs SuiteScript les outils pour innover plus rapidement.

Avez-vous besoin d'aide pour implanter des solutions NetSuite basées sur l'IA ?

Contactez Solutions GURUS dès aujourd'hui, notre équipe peut vous aider à concevoir, scénariser et intégrer l'IA générative dans vos flux de travail NetSuite.