Kruisverwijzing van SmileBack CSAT-scores met Autotask ticketoplostijden over 67.521 tickets. Dit rapport onderzoekt of snellere oplostijden samenhangen met hogere klanttevredenheid, en identificeert klanten waar hiaten in de enqueterespons het beeld onvolledig maken.
Kruisverwijzing van SmileBack CSAT-scores met Autotask ticketoplostijden over 67.521 tickets. Dit rapport onderzoekt of snellere oplostijden samenhangen met hogere klanttevredenheid, en identificeert klanten waar hiaten in de enqueterespons het beeld onvolledig maken.
De data dekt het volledige bereik van Autotask PSA-records die relevant zijn voor deze analyse, uitgesplitst naar de belangrijkste dimensies die je team nodig heeft voor dagelijkse beslissingen en klantrapportage.
Wie dit zou moeten gebruiken: Service delivery managers, operations leads, and MSP owners tracking service quality
Hoe vaak: Wekelijks for operational adjustments, monthly for client reporting, quarterly for contract reviews
Kruisverwijzing van SmileBack CSAT-scores met Autotask ticketoplostijden over 67.521 tickets. Dit rapport onderzoekt of snellere oplostijden samenhangen met hogere klanttevredenheid, en identificeert klanten waar hiaten in de enqueterespons het beeld onvolledig maken.
Kernmetrics over alle klanten van de afgelopen 12 maanden, met gecombineerde SmileBack-enquetedata en Autotask-oplostijden.
Top 10 klanten gerangschikt op gemiddelde uren per ticket. Klanten met de langzaamste oplostijden, gecombineerd met hun CSAT-scores en SLA-naleving. Cellen met "--" hebben geen SmileBack-enquetedata.
| Klant | CSAT Pos% | Vorige Maand | Gem. Uren/Ticket | Opl. SLA Gehaald |
|---|---|---|---|---|
| Klant A | -- | -- | 9,67 | -- |
| Klant B | -- | -- | 6,83 | -- |
| Klant C | -- | -- | 4,86 | 100% |
| Klant D | -- | -- | 4,06 | 80% |
| Klant E | -- | -- | 3,00 | -- |
| Klant F | 100% | -- | 2,98 | 100% |
| Klant G | -- | -- | 2,60 | 77,8% |
| Klant H | -- | -- | 1,64 | 80% |
| Klant I | -- | -- | 1,50 | -- |
| Klant J | -- | -- | 1,46 | 50% |
De traagste klanten zijn bijna volledig onzichtbaar qua tevredenheid. Van de 10 klanten met de meeste uren per ticket heeft alleen Klant F CSAT-data. De accounts die het meeste arbeid per ticket verbruiken zijn dezelfde accounts waarvan je geen idee hebt of de klant blij of gefrustreerd is. Klant A zit op gemiddeld 9,67 uur per ticket met nul enqueteantwoorden. Dat is een blinde vlek die je moet onderzoeken.
EVALUATE
TOPN(10,
ADDCOLUMNS(
SUMMARIZE(Bridge_All_Companies,
Bridge_All_Companies[company_id]
),
"CompName", CALCULATE(MAX('BI_Autotask_Companies'[company_name])),
"CSAT", [CSAT - Average Rating],
"CSATLastMonth", [CSAT - Average Rating - Last Month],
"AvgHoursPerTicket", [Tickets - Avg Hours Per Ticket],
"ResMet", [Tickets - Resolution Met %]
),
[AvgHoursPerTicket], DESC
)
Maandelijks CSAT-positiefpercentage (linker as) afgezet tegen gemiddelde uren per ticket (rechter as). De vraag: als de oplostijd daalt, volgt tevredenheid dan?
De twee lijnen bewegen bijna gelijk op. Van mei tot maart verbeterden zowel CSAT als oplostijd gestaag. CSAT steeg van 84,2% naar 90,1%, terwijl gemiddelde uren per ticket daalde van 0,92u naar 0,68u. De dip in april in beide metrics (CSAT terug naar 87,7%, uren omhoog naar 0,75u) bevestigt de correlatie. Als tickets langer duren, daalt de tevredenheid. De Pearson-correlatie tussen deze twee reeksen is ongeveer -0,94, wat zo sterk is als het maar kan.
EVALUATE ROW("CSATAvg", [CSAT - Average Rating], "CSATLastYear", [CSAT - Average Rating - Last Year], "ResolutionMet", [Tickets - Resolution Met %], "SameDayRes", [Tickets - Same Day Resolution %], "FirstHourFix", [Tickets - First Hour Fix %], "TotalTickets", [Tickets - Count - Created], "HoursWorked", [Tickets - Hours Worked])
Vergelijking van eerste-reactie SLA (80,1%) en oplossing-SLA (90,2%) met de totale CSAT. De donutgrafieken tonen het verschil tussen beide SLA-metrics en waar het tevredenheidsdoel ligt.
Oplossing-SLA scoort 10 procentpunten beter dan eerste-reactie SLA. Het verschil suggereert dat de eerste pickup traag kan zijn, maar het team goed herstelt tijdens de oplossingsfase. CSAT op 87,7% zit precies tussen de twee SLA-metrics in, wat logisch is: klanten voelen de wachttijd aan het begin, maar het eindresultaat valt goed uit. Als je de eerste-reactie kloof dicht van 80,1% richting 90%, dan duwt dat CSAT waarschijnlijk boven de 90%.
Klanten zonder CSAT-data hebben ook slechtere SLA-prestaties. De groep zonder enqueteantwoorden scoort 8 punten lager op eerste reactie en 5 punten lager op oplossing vergeleken met klanten die wel reageren. Dit is geen toeval. De minst betrokken klanten krijgen meestal minder proactieve aandacht, wat zowel hun SLA-cijfers als hun bereidheid om enquetes in te vullen naar beneden haalt.
EVALUATE
ROW(
"AvgCSAT", [CSAT - Average Rating],
"AvgFRMet", [Tickets - First Response Met %],
"AvgResMet", [Tickets - Resolution Met %],
"TotalTickets", [Tickets - Count - Created]
)
Enqueterespons-dekking over de top 10 traagste klanten. Groene cellen geven aan dat CSAT-data beschikbaar is; rode cellen geven aan dat er geen enquetedata bestaat.
9 van de 10 traagste klanten hebben nul CSAT-data. Alleen Klant F geeft enquete-feedback, en die zijn toevallig 100% tevreden met een 100% oplossing-SLA. Het patroon is duidelijk: klanten die de meeste supporturen verbruiken zijn het minst geneigd om tevredenheidsenquetes in te vullen. Dit creert een feedbackloop waarbij de accounts die de meeste aandacht nodig hebben de accounts zijn waarvan je het minst weet.
Klant J valt om een andere reden op. Met 1,46 uur per ticket is de oplostijd niet extreem. Maar een SLA-score van 50% zonder enige CSAT-data is een waarschuwingssignaal. Deze klant is mogelijk stilletjes ontevreden.
Over 12 maanden liet elke maand waarin de gemiddelde uren per ticket daalde ook een CSAT-verbetering zien. De relatie is bijna perfect invers. Snellere oplossing is de sterkste hendel om klanttevredenheid te verbeteren in deze dataset.
De top 10 klanten qua uren per ticket vertegenwoordigen de zwaarste supportbelasting. Van deze 10 hebben er 9 nul SmileBack-enquetes ingevuld. Je besteedt de meeste tijd aan accounts waarvan je tevredenheid niet kunt meten. Dat is een risico.
Oplossing-SLA staat op een gezonde 90,2%, maar eerste reactie loopt 10 punten achter. Omdat klanten de wachttijd aan het begin het sterkst voelen, verklaart dit verschil waarschijnlijk het gat tussen de 87,7% CSAT en wat een 90%+ score zou kunnen zijn. Het team lost dingen goed op; ze moeten alleen sneller oppakken.
De groep zonder CSAT draait op 76,4% eerste reactie en 87,8% oplossing, vergeleken met 84,3% en 93,1% voor klanten met enquetedata. Deze accounts krijgen objectief slechtere service en je hebt geen tevredenheidssignaal om dat te signaleren. Dubbele blinde vlek.
De kernbevinding is simpel: snelheid bepaalt tevredenheid. De -0,94 correlatie tussen oplostijd en CSAT-positiefpercentage is zo definitief als het maar kan in operationele data. Dit is geen "misschien." Elke maand dat de oplostijd daalde, ging CSAT omhoog. Elke maand dat de oplostijd opkroop, daalde CSAT.
Maar er zit een tweede verhaal onder het eerste. De CSAT-data dekt maar een fractie van het klantenbestand. De klanten die enquetes invullen zijn meestal degenen die al betere service krijgen (hogere SLA-naleving, lagere oplostijden). De klanten die de meeste supporturen verbruiken en het vaakst SLA-doelen missen zijn onzichtbaar in de tevredenheidsdata. Dit betekent dat het CSAT-cijfer van 87,7% waarschijnlijk de werkelijke tevredenheid over de volledige klantenbasis mooier maakt dan het is.
De april-dip is het in de gaten houden waard. Na 10 maanden gestage verbetering keerden zowel CSAT als oplostijd om in april. CSAT daalde van 90,1% naar 87,7%, en gemiddelde uren stegen van 0,68u naar 0,75u. Dit kan seizoensgebonden zijn (einde boekjaar, personeelswisselingen), een eenmalige gebeurtenis, of het begin van een trend. Een maand is geen patroon, maar het is het signaleren waard voor de review van volgende maand.
Klant F is een interessante uitzondering. Het is de enige klant met hoge uren per ticket (2,98u) die 100% CSAT en 100% oplossing-SLA heeft. Dit suggereert dat sommige klanten met complexe omgevingen prima tevreden kunnen zijn, zolang de SLA-afspraken worden nagekomen. Oplostijd alleen bepaalt niet de tevredenheid; het nakomen van de beloofde tijdlijn telt net zo zwaar.
Praktische stappen om het CSAT-dekkingsgat te dichten en de snelheid-tevredenheid-lijn in de goede richting te houden.
Controleer of Klanten A tot en met J allemaal actieve SmileBack-enquetetriggers hebben bij het sluiten van tickets. Als de enquetes actief zijn maar niet worden ingevuld, schakel dan over naar een andere leveringsmethode (inline e-mail vs. apart enquete-e-mail). Het doel: minimaal een datapunt per klant binnen 30 dagen.
Gemiddelde uren per ticket sprong van 0,68u naar 0,75u in april, wat 10 maanden verbetering doorbreekt. Trek de ticketdata voor april erbij en controleer op: personeelswijzigingen, een piek in complexe tickets, of een specifieke klant die de stijging veroorzaakt. Als het eenmalig is, documenteer het. Als het structureel is, pak het aan voor mei.
Het verschil van 10 punten tussen eerste reactie (80,1%) en oplossing (90,2%) SLA is het grootste operationele gat in dit rapport. Stel een 90-dagendoel om de helft van dat gat te dichten. Bekijk auto-assignment regels, controleer op tickets die in wachtrijen liggen zonder oppakken, en overweeg eerste-reactie-alerts voor tickets die de SLA-deadline naderen.
Volg het percentage klanten met minimaal een enqueterespons per maand. Stel een doel van 70% klantdekking binnen 6 maanden. Op dit moment zijn de zwaarste klanten onzichtbaar. Een simpel maandrapport dat laat zien welke klanten nul antwoorden hebben, houdt dit onderwerp op de agenda.
SmileBack gebruikt een -1 (negatief), 0 (neutraal), +1 (positief) schaal. Het positiefpercentage is het aantal +1 antwoorden gedeeld door het totaal aantal antwoorden. Een score van 87,7% betekent dat van alle ingevulde enquetes 87,7% positief was. Neutrale en negatieve antwoorden vormen de overige 12,3%.
Verschillende redenen: de klant kan zich hebben afgemeld voor enquetes, de enquetetrigger is mogelijk niet geconfigureerd voor hun tickettypen, of ze reageren simpelweg niet. In sommige gevallen worden tickets gesloten zonder de eindgebruiker te bereiken (bijv. interne escalaties of monitoring-tickets). Controleer de SmileBack-configuratie per klant om de oorzaak te achterhalen.
Eerste-reactie SLA meet hoe snel het team een ticket erkent (eerste menselijke reactie of statuswijziging). Oplossing-SLA meet hoe snel het ticket volledig is opgelost. Een ticket kan de oplossing-SLA halen terwijl het de eerste-reactie SLA mist, als het in de wachtrij ligt maar vervolgens snel wordt opgelost zodra het wordt opgepakt.
Niet per se. Klant F heeft gemiddeld 2,98 uur per ticket maar heeft 100% CSAT en 100% SLA-naleving. Sommige klanten hebben complexe omgevingen die meer tijd per ticket vereisen. Het probleem ontstaat als hoge uren samengaan met gemiste SLA's en afwezige CSAT-data, want dan heb je geen manier om te weten of de tijdsinvestering loont.
De Pearson-correlatiecoefficient is ongeveer -0,94. Dit is een zeer sterke inverse relatie: als de oplostijd daalt, stijgt CSAT. In de praktijk komt elke 0,1u vermindering in gemiddelde oplostijd historisch overeen met ongeveer 2,5 procentpunten stijging in CSAT-positiefpercentage.
Ja. Kopieer een query uit de toggles hierboven en plak deze in DAX Studio of de Power BI Desktop performance analyzer. De queries verwijzen naar standaard Proxuma datamodel tabellen en measures die in elke Proxuma Power BI deployment aanwezig zijn.
Koppel Proxuma's Power BI integratie, gebruik een MCP-compatible AI om vragen te stellen en genereer op maat gemaakte rapporten - in minuten, niet in dagen.
Bekijk meer rapporten Aan de slag