Header Image of the Blog.

ELASTIC AI ASSISTANT VOOR OBSERVABILITY

Elastic heeft zijn Elastic AI Assistant uitgebreid, een generatieve AI aangedreven door de Elasticsearch Relevance Engine™ (ESRE). De AI Assistant, momenteel in technische preview voor Observability, is gericht op het herdefiniëren van hoe Site Reliability Engineers (SRE's) problemen identificeren en oplossen, door het elimineren van handmatig zoeken naar gegevens in verschillende silo's. Door contextbewuste informatie te bieden, verbetert Elastic's AI Assistant het begrip van applicatiefouten, logberichten, waarschuwing analyses en code efficiëntie, en biedt het ondersteuning aan SRE's.

BELANGRIJKE KENMERKEN:

  1. Interactieve Chat Interface: Elastic AI Assistant faciliteert samenhangende communicatie voor SRE's door een interactieve chatinterface aan te bieden waar gebruikers kunnen chatten en relevante telemetriegegevens op één plek kunnen visualiseren. Deze interface integreert ook eigen data en runbooks, wat extra context biedt.
  2. Toegang tot Privé-Informatie: Gebruikers kunnen privégegevens, zoals runbooks, incidentgeschiedenissen en casusdata, delen met de AI Assistant. Een inferentieprocessor, aangedreven door de Elastic Learned Sparse Encoder, geeft de Assistant toegang tot de meest relevante data om vragen te beantwoorden en taken uit te voeren.
  3. Kennisuitbreiding: De AI Assistant kan zijn kennisbasis continu uitbreiden via gebruikersinteracties. SRE's kunnen hem leren over specifieke problemen, waardoor de Assistant in de toekomst ondersteuning kan bieden bij vergelijkbare scenario's. Dit omvat het opstellen van storingsrapporten, het bijwerken van runbooks en het verbeteren van geautomatiseerde root cause analysis, wat uiteindelijk de probleemoplossing versnelt.

HOE HET WERKT

Stel je voor dat je een SRE bent die een waarschuwing ontvangt over een overschreden drempelwaarde voor logboekvermeldingen. Hoewel Elastic Observability enkele inzichten biedt, heb je verdere analyse van de logpiek nodig. Hier komt de AI Assistant in beeld. Hij stuurt een vooraf gebouwde prompt naar je geconfigureerde Large Language Model (LLM), dat niet alleen een beschrijving en context van het probleem biedt, maar ook aanbevelingen geeft over hoe verder te gaan. Bovendien kun je een chat met de AI Assistant starten om dieper in je onderzoek te duiken.

De chatinterface van de AI Assistant ondersteunt natuurlijke taalvragen en stelt je in staat om:

  • Conclusies en context te verkrijgen en aanbevelingen te ontvangen uit je privédata (aangedreven door Elastic Learned Sparse Encoder) en het verbonden LLM.
  • Reacties en output van de AI Assistant te analyseren.
  • Informatie samen te vatten gedurende het gesprek.
  • Lens-visualisaties binnen de chat te genereren.
  • Kibana® en Elasticsearch® API's uit te voeren via de chatinterface.
  • Root cause analysis uit te voeren met specifieke APM-functies.

Met de Elastic AI Assistant kunnen SRE's diepere inzichten in problemen krijgen, de impact op het bedrijf begrijpen en gebruik maken van privédata waarop LLM's niet zijn getraind. Dit hulpmiddel is bedoeld om observability-analyse te stroomlijnen, handmatige gegevensverzameling te verminderen en AIOps-mogelijkheden te verbeteren.

Kortom, Elastic's AI Assistant voor Observability is erop gericht de manier waarop SRE's werken te transformeren door hen contextbewuste inzichten en efficiënte probleemoplossingsmogelijkheden te bieden. Deze uitbreiding van de Elastic AI Assistant is klaar om een cruciale rol te spelen in het observability-landschap en biedt een krachtig hulpmiddel voor SRE's om hun workflow te verbeteren.


Heb je enige vragen of wens je een op maat gemaakte oplossing? Voel je vrij om ons te contacteren!