Régression visuelle · Cross-browserHébergé en UE · Conforme RGPD

Livrez l’interface que vous avez conçuepas celle qui a glissé à travers la CI

ScanU est une plateforme de tests de régression visuelle et de captures d’écran cross-browser pensée pour les équipes web professionnelles. Elle capture des rendus au pixel près de chaque page qui compte, dans les navigateurs et les résolutions que vos utilisateurs emploient réellement, et fait remonter les changements de mise en page que les tests unitaires et end-to-end laissent passer en silence.

Navigateurs
Chromium · Gecko · WebKit
Résolutions
Desktop · Tablette · Mobile
Hébergement
UE · Conforme RGPD
Intégration
Prêt pour la CI/CD

Ce qu’est ScanU

Une plateforme de QA visuelle — pas un simple capteur d’écrans

ScanU transforme le dernier kilomètre de la qualité de livraison — précisément ce que vos utilisateurs voient — en un signal sur lequel votre équipe peut agir. La plateforme prend des captures pixel-stables des pages que vous désignez, fige une baseline explicite, et chaque exécution suivante est comparée à cette baseline sur les navigateurs et les appareils qui comptent.

La plupart des équipes utilisent déjà des linters, des vérifications de types, des tests unitaires et des tests end-to-end. Tout cela peut rester au vert pendant qu’un bouton glisse de douze pixels, qu’une modale perd son padding, qu’un menu casse sur Safari ou qu’un point de rupture mobile reflue silencieusement le hero. Les tests fonctionnels vérifient un comportement ; ils ne vérifient pas ce à quoi la page ressemble. C’est précisément le rôle d’un outil de tests par capture d’écran, et c’est ce que ScanU fait — sans cérémonie.

En coulisses, ScanU pilote de vrais moteurs de rendu — Chromium, Gecko et WebKit — contre les URL ou les previews de composants que vous désignez. Chaque exécution produit une capture déterministe pour chaque paire (navigateur, viewport) configurée. La première exécution acceptée devient la baseline. À partir de là, chaque pull request, chaque déploiement, chaque contrôle planifié devient un diff par rapport à cette baseline : toute régression visuelle est mise en avant comme une modification à relire, comme une revue de code fait apparaître une ligne modifiée.

Le pipeline de comparaison complet prend en charge les détails qui rendent le diffing de captures réellement exploitable dans un workflow de production : tolérance à l’anti-aliasing, stabilisation des animations, chargement des polices, masquage des contenus dynamiques, capture au scroll et seuils de diff perceptuels — pour qu’un ajustement de hinting sous-pixel ne noie pas une vraie régression de mise en page.

ScanU s’adresse aux équipes qui considèrent l’interface comme un contrat passé avec leurs utilisateurs. C’est un outil de tests de régression visuelle, un outil de comparaison de captures cross-browser et une surface de revue des diffs — en une seule plateforme — entre votre build et votre release gate.

Captures pixel-stables

Rendu déterministe avec attente du chargement des polices, épinglage des animations et masquage des contenus dynamiques : les diffs reflètent de vraies régressions, pas du bruit.

Matrice cross-browser

Chromium, Gecko et WebKit pilotés en parallèle, sur les résolutions desktop, tablette et mobile que vos utilisateurs emploient réellement.

Diffs relisables

Baseline, capture actuelle et diff surligné côte à côte. Accepter, rejeter ou mettre à jour la baseline : toujours par une action explicite, jamais en silence.

Natif CI/CD

S’exécute dans votre pipeline existant. Status checks, commentaires de pull request et liens d’artefacts apparaissent là où vos ingénieurs relisent déjà le code.

Compatible design system

Ciblez Storybook, une sandbox de composants ou des URL en direct. Changements de tokens et refactorings de composants reçoivent un audit visuel honnête avant livraison.

Hébergé en UE

Captures et métadonnées stockées sur une infrastructure européenne, avec un traitement des données conforme au RGPD — adapté aux équipes ayant des exigences strictes de résidence des données.

Pourquoi c’est important

Les régressions visuelles sont les bugs qui atteignent vos utilisateurs

Le coût d’un bug visuel se mesure rarement en temps de développement. Il se mesure à la confiance d’un utilisateur qui ouvre votre produit, voit quelque chose de subtilement faux et décide silencieusement que l’équipe ne soigne pas les détails. Cette confiance est difficile à reconstruire, et il est presque toujours moins cher de prévenir le bug.

Les tests fonctionnels répondent bien à une question : « ce bouton fait-il ce qu’il doit faire quand on clique dessus ? » Ils sont muets sur tout ce qui se passe avant le clic — si le bouton a la bonne couleur, la bonne taille, la bonne place, s’il reste lisible sur un écran de 360 pixels ou s’il est simplement visible après le dernier refactoring CSS. C’est exactement dans cette zone que vivent la plupart des incidents du jour J.

Les régressions réelles que nous observons, et que ScanU est conçu pour attraper, se regroupent autour d’une poignée de déclencheurs prévisibles :

  • Un refactoring CSS écrase le gap d’un conteneur flex sur un unique point de rupture. Sur desktop, la mise en page paraît identique ; sur une tablette de 768 pixels, deux cartes se chevauchent désormais.
  • Un ajustement de design tokens décale chaque valeur d’espacement de deux pixels. Rien ne casse ; une douzaine de compositions soigneusement équilibrées cessent silencieusement de l’être.
  • Un widget tiers — une bannière de cookies, un live-chat, un emplacement publicitaire — déploie une mise à jour silencieuse qui déplace le first paint. Les Core Web Vitals régressent du jour au lendemain, sans aucun changement de code de votre côté.
  • Une montée de version d’un framework remplace la pile de font-features par défaut. Les textes se reflow d’une demi-ligne sur les pages longues. Les CTA du hero passent soudain sous la ligne de flottaison.
  • Le déploiement d’un feature flag réordonne le DOM. Sur Safari, le contexte d’empilement d’une modale change et le bouton de fermeture devient inclicable. Sur Chrome, tout paraît normal.

Aucune de ces modifications ne fait échouer une assertion. Toutes cassent quelque chose pour l’utilisateur. Le travail de ScanU est de rendre ce deuxième type de défaillance aussi facile à voir, à relire et à bloquer qu’un test unitaire en erreur. Lorsque le diff apparaît sur la pull request, une designer peut intervenir comme un reviewer intervient sur une signature de fonction — avant le merge, pas après la mise en production.

Ce basculement — passer de « on espère que quelqu’un le verra en staging » à « on relit un changement visuel comme on relit un changement de code » — est la valeur centrale d’un outil de tests de régression visuelle dans un pipeline de livraison moderne.

Tests cross-browser

Le web que vous livrez n’est pas le web que vous avez testé

Le cross-browser testing n’est pas une taxe de nostalgie héritée d’IE6. Les moteurs modernes — Chromium, Gecko et WebKit — divergent encore sur les détails dont vos mises en page dépendent silencieusement, et un nombre surprenant d’incidents en production se ramène à une différence de rendu que personne n’a auditée.

Quand une régression n’apparaît que dans un seul moteur, c’est presque toujours pour l’une de trois raisons : une fonctionnalité employée est disponible plus tard dans certains moteurs que dans d’autres ; une mise en page dépend d’une métrique qui varie selon la plateforme (largeur de scrollbar, baseline de police, algorithme de lissage) ; ou un polyfill conditionné par le user-agent se comporte légèrement différemment en production que sur la machine du développeur. Les trois sont invisibles pour une suite de tests agnostique au moteur.

Exemples typiques rencontrés lors d’un audit cross-browser :

  • Les champs de formulaire — en particulier date, datetime-local, select — sont rendus avec des chromes visiblement différents sur WebKit et Chromium, déplaçant parfois les éléments adjacents de quelques pixels.
  • Calcul de l’espace scrollbar : WebKit sur macOS masque les scrollbars par défaut, Chromium sous Windows réserve leur largeur. Une mise en page au pixel près sur l’un est tronquée ou présente un écart sur l’autre.
  • Le hinting sous-pixel des polices diffère d’un moteur à l’autre. Une line-height équilibrée sur Chromium peut pousser un CTA sous la ligne de flottaison sur Gecko.
  • Le CSS gap dans les conteneurs flex, aspect-ratio et les container queries ont été livrés à des moments légèrement différents selon les moteurs. Si votre build vise une baseline plus ancienne, les chemins de repli peuvent se rendre différemment du chemin principal.
  • Les préférences système — prefers-color-scheme, accent-color et forced-colors sous Windows — se propagent dans le DOM différemment selon les plateformes et sont faciles à manquer en environnement de dev local.

ScanU capture chaque page sur tous les moteurs et résolutions que vous configurez, en un seul passage, avec des fixtures et des hooks de timing identiques — les diffs affichés sont donc de véritables différences de mise en page et non un effet de bord d’un harnais spécifique à chaque navigateur. Toutes les capacités cross-browser sont décrites sur la page produit : la matrice que vous configurez est la matrice capturée à chaque exécution.

Pour les équipes qui livrent des design systems, ou tout produit dont l’identité visuelle fait partie de la marque, cette matrice n’est pas un confort. C’est le seul moyen de savoir que ce que votre client voit dans Safari correspond à ce que vous avez validé dans Chrome.

Exemple : passage cross-browser de ScanU sur une page d’accueil marketing
NavigateurRésolutionStatut
Chromium 1241440 × 900Conforme à la baseline
Firefox 1261440 × 900Conforme à la baseline
WebKit (Safari 17)1440 × 900Diff visuel · à relire
Chromium 124768 × 1024Conforme à la baseline
WebKit (Safari 17)768 × 1024Décalage de mise en page détecté
Chromium 124390 × 844Nouvelle baseline en attente

Comment fonctionne la comparaison

Capture déterministe, diff honnête, revue explicite

Un outil de diff visuel n’est utile qu’à la mesure du rapport signal-bruit des diffs qu’il produit. Le pipeline de capture de ScanU est conçu pour que la seule chose qui change entre deux exécutions soit la chose que vous avez réellement modifiée — pas le décor des polices, animations, horodatages ou emplacements publicitaires qui l’entoure.

Chaque exécution est un pipeline en trois étapes. D’abord, ScanU navigue dans chaque moteur vers la page ou le composant à tester, attend un ensemble configuré de signaux de préparation — polices chargées, images décodées, réseau calme, un attribut data-ready ou une sonde JavaScript personnalisée — et épingle toutes les animations CSS sur leur image finale. Ensuite, il capture la page sur chaque viewport configuré dans la même exécution, avec du scroll-stitching pour les pages longues, de sorte que vous obteniez l’artefact complet et non pas seulement la portion visible. Enfin, il compare cette capture à la baseline acceptée et produit un résultat par paire (navigateur, viewport) : identique, dans la tolérance, ou significativement différent.

La comparaison elle-même n’est pas un diff de pixels naïf. ScanU applique un modèle perceptuel qui comprend l’anti-aliasing, le rendu sous-pixel et les écarts d’espace colorimétrique — pour qu’une bizarrerie de kerning sur WebKit ne soit pas confondue avec un bug. Le pipeline prend aussi en charge des masques explicites pour les régions que vous savez changeantes à chaque chargement — données en direct, horodatages relatifs, contenus randomisés, carrousels — de sorte que ces zones apportent zéro bruit au diff.

Quand un vrai changement apparaît, la plateforme présente trois vues synchronisées : la baseline, la capture actuelle et un overlay de diff qui met en évidence ce qui a bougé. Une seule décision à relire — accepter, rejeter ou mettre à jour la baseline — est enregistrée pour chaque changement, et cette décision devient une partie de l’historique du projet. Pas de dérive silencieuse, pas d’acceptation automatique : la baseline ne bouge que lorsqu’une personne autorisée le décide.

Le même pipeline peut être déclenché par trois points d’entrée : contre des URL en direct (production, staging, previews de PR), contre un site statique ou un bundle d’assets, ou contre des previews de composants dans une sandbox à la Storybook. La plupart des équipes utilisent la première voie pour les release gates, la seconde pour les artefacts de déploiement et la troisième pour le travail sur le design system — les trois alimentent le même stockage de baselines.

Baseline · Actuel · Diff — les trois vues d’une revue
Baseline

Le dernier rendu accepté pour cette page, ce navigateur et cette résolution. Figé tant qu’un reviewer ne le met pas explicitement à jour.

Actuel

La capture de cette exécution. Mêmes fixtures, mêmes hooks de timing, même viewport — seul le code à tester a changé.

Overlay de diff

Les régions surlignées en ambre indiquent où le rendu actuel s’écarte de la baseline au-delà de la tolérance configurée.

Pour qui est ScanU

Les équipes qui traitent l’UI comme une surface bloquante pour la livraison

ScanU est conçu pour les équipes dont le travail se juge à ce que l’utilisateur voit. Ce groupe est plus large qu’il n’y paraît — pas seulement les designers et les frontend, mais quiconque dont les décisions de livraison dépendent d’une interface correcte sur un navigateur donné, à une résolution donnée, un jour donné.

Les ingénieurs frontend et full-stack utilisent ScanU comme dernière étape d’un pipeline de pull request : le build est vert, les tests unitaires passent, la suite end-to-end est heureuse — et un diff visuel confirme alors que la modification correspond à ce que la designer attendait, ou révèle une régression que personne n’aurait détectée en relisant un patch. Résultat : moins de temps à éteindre les feux post-déploiement et plus de temps sur le travail qui fait réellement avancer le produit.

Les ingénieurs QA gagnent un étage de tests qui passe à l’échelle sans réécrire de sélecteurs. Ajouter une page à la suite visuelle, c’est une URL et une baseline — pas une semaine de XPath fragiles. L’étage qui attrape les régressions UI devient un membre à part entière de la pyramide de tests, et non plus un message Slack d’un utilisateur après coup.

Les équipes design system et plateforme exécutent ScanU contre chaque sandbox de composant de leur librairie. Quand un token change, chaque composant qui en dépend reçoit automatiquement un audit visuel. Quand un composant est refactorisé, les consommateurs en aval obtiennent un diff qu’ils peuvent relire avant la publication de la nouvelle version. C’est ainsi qu’un design system évite d’accumuler des régressions silencieuses au fil des années.

Les responsables produit et ingénierie se servent de la surface de revue comme d’une preuve. Les release notes peuvent inclure un lien vers le diff visuel accepté pour chaque livraison. Les post-mortem peuvent référencer si une régression a été détectée, manquée ou explicitement acceptée. Au fil du temps, la plateforme devient une trace de l’évolution de l’UI et de qui a validé chaque étape.

Cas d’usage

De la livraison d’agence à la gouvernance de design system

La même plateforme sert des workflows très différents. Le fil rouge : chacune de ces équipes livre de l’UI à une cadence qui compte pour ses clients, et chacune a besoin de savoir — d’un coup d’œil — si l’UI ressemble toujours à ce qu’elle devrait.

Quelle que soit la forme de l’équipe, ScanU est typiquement adopté pour l’une de cinq raisons : un incident récent en production qu’une régression visuelle aurait attrapé ; une migration de design system dont le périmètre d’impact est impossible à auditer manuellement ; un workflow CI/CD qui réclame un release gate plus riche que « tests passés » ; un livrable orienté client qui demande des preuves avant/après ; ou une posture compliance qui préfère un outillage de test hébergé en UE. Une intégration CI/CD partagée est derrière ces cinq cas — le même pipeline fait le travail qu’il soit déclenché par une PR, un merge ou une planification nocturne.

Agences digitales

Livrez chaque semaine un delta visuel par site à vos clients. Des preuves avant/après à chaque sprint, sur chaque navigateur prévu au contrat, dans un seul rapport.

QA et release engineering

Ajoutez un étage visuel à la pyramide de tests. De nouvelles pages entrent dans la suite avec une URL et une baseline — pas de sélecteurs fragiles, pas de scripts de captures flakey à maintenir.

Équipes frontend

Les diffs de captures apparaissent directement sur la pull request. Les régressions de mise en page sont attrapées en revue, pas en production, pas dans un thread Slack d’un client.

Startups et scale-ups

Avancer vite sans casser la page d’accueil. Un filet de sécurité déterministe qui garde le site marketing pixel-stable à travers refontes, tests A/B et migrations de tokens.

Design systems

Couverture visuelle sur chaque sandbox de composant. Changements de tokens, bascules de thèmes et refactorings de composants reçoivent automatiquement un audit avant publication de la librairie.

Responsive design

Validez vos points de rupture mobile, tablette et desktop dans la même exécution. Les tests responsive cessent d’être une corvée de captures et deviennent une étape de revue.

CI/CD et confiance à la livraison

Un signal visuel que votre pipeline sait déjà lire

La confiance à la livraison n’est pas un sentiment. C’est un pipeline qui dit la vérité sur ce qui part en production — y compris les parties sur lesquelles votre test runner n’a aucune opinion. ScanU s’insère dans ce pipeline comme un status check, un commentaire de PR et un artefact stocké, accessible depuis n’importe quel post-mortem.

Le modèle d’intégration est délibérément sobre : l’étape de capture ScanU s’exécute dans le même job que vos tests ; elle reporte un pass, un review-needed ou un fail sur la PR ; et ce statut est traité comme n’importe quel autre check obligatoire. Vos équipes savent déjà lire le vert, le jaune et le rouge dans leur pipeline — un check de régression visuelle glissé dans ce rythme apporte une dimension de sécurité supplémentaire sans exiger un nouveau modèle mental.

Sous le capot, ScanU est conçu pour les réalités de la CI/CD moderne :

  • Exécutions déterministes. La même page, capturée sur le même navigateur, à la même résolution, avec les mêmes hooks de stabilisation, produit les mêmes octets. C’est la condition préalable pour que le diffing ait du sens.
  • Parallélisme. Navigateurs et viewports s’exécutent en parallèle, et les grosses matrices se répartissent entre runners. Un site de 60 pages sur trois moteurs et trois résolutions devient un check de quelques minutes, pas un batch nocturne.
  • Statuts honnêtes. Une nouvelle page introduit une baseline en attente, pas un échec. Une zone connue pour flakier est masquée, pas ignorée. Une vraie régression est une demande de revue avec un lien — pas un mur de bruit pixelisé.
  • Compatible environnements de preview. Les previews de PR reçoivent leurs propres baselines en cours qui n’intègrent la baseline principale qu’au merge et après acceptation. Rien ne fuit entre branches.
  • Artefact d’abord. Chaque exécution stocke l’ensemble baseline, capture actuelle et diff avec une URL stable. Release notes, rapports d’incident et audits peuvent référencer l’état visuel exact livré.

Le guide d’intégration CI/CD détaille le câblage précis pour GitHub Actions, GitLab CI, Bitbucket Pipelines et les runners auto-hébergés. Le cas courant se résume à un job supplémentaire ; le cas avancé est une matrice d’environnements qui fait progresser une baseline au fil d’une livraison échelonnée.

RGPD · Hébergement UE · Confidentialité

Une plateforme de test qui respecte l’endroit où vivent vos données

Les artefacts de test sont des données. Les captures peuvent incidemment contenir des données personnelles qui se trouvaient sur une page — un nom dans une barre de navigation, une e-mail dans un menu profil, une référence de commande sur un écran de confirmation. Une plateforme de tests visuels responsable traite ces artefacts avec le même soin que les données de production qu’ils reflètent.

ScanU est construit et hébergé dans l’Union européenne ; le stockage et le traitement se font sur une infrastructure exploitée en UE. Pour les équipes aux engagements de résidence des données — secteurs régulés, acheteurs publics, clients B2B sensibles à la confidentialité — c’est souvent une exigence d’achat, non une préférence. ScanU est conçu pour satisfaire cette exigence sans obliger à un compromis sur les capacités produit.

Quelques choix de design délibérés en découlent :

  • Minimisation des données. La plateforme stocke les captures et les métadonnées nécessaires au diff ; elle n’aspire ni le code source de la page, ni les cookies, ni les corps de requête qui n’apportent rien au diff.
  • Masquage par défaut dans les contextes sensibles. Les champs connus pour contenir des données personnelles — en-têtes de compte, adresses e-mail, numéros de commande — peuvent être déclarés comme régions masquées, de sorte que l’image capturée soit déjà caviardée lorsqu’elle est écrite dans le stockage.
  • Contrôle d’accès. Qui peut voir un diff est un droit de premier ordre. Reviewers, contributeurs et auditeurs externes reçoivent des rôles explicites, et chaque mise à jour de baseline est tracée avec la personne qui l’a autorisée.
  • Transparence sur les sous-traitants. La liste des sous-traitants est publiée et versionnée. Aucun pipeline d’analytics caché ne voit vos captures.
  • Rétention sous votre contrôle. Baselines et artefacts de diff sont conservés pour l’horizon que vous configurez ; les anciennes exécutions expirent automatiquement au lieu de s’accumuler en silence.

Pour la posture de confidentialité complète — sous-traitants, hébergement régional, DPA, fenêtres de rétention — voyez la documentation RGPD et traitement des données. Pour la plupart des équipes, la réponse courte suffit : vos captures restent en UE, et la plateforme est construite pour qu’elles y restent.

La différence

Pourquoi ScanU n’est pas un outil de test générique

Le test visuel est une catégorie encombrée. Ce qui distingue ScanU, c’est en bonne partie ce qu’il refuse de faire — les raccourcis qu’il ne prendra pas, le bruit qu’il ne transmettra pas à votre file de revue, et les opinions qu’il a sur la façon dont un diff doit être relu.

Les outils génériques de captures se livrent souvent comme une bibliothèque à coller à votre test runner, après quoi on vous laisse bagarrer avec le timing, les polices, les animations et la question éternelle : un décalage d’un pixel est-il un vrai bug ou un artefact d’arrondi ? ScanU prend une position plus ferme : si la plateforme ne parvient pas à produire une capture déterministe, c’est à la plateforme de régler le problème — pas à vous. C’est pourquoi signaux de préparation, chargement de polices, épinglage d’animations, scroll-stitching, diffing perceptuel et régions masquées sont intégrés nativement, et non greffés.

La tarification suit la même logique. Pour une équipe raisonnable — quelques dizaines de pages, trois moteurs, trois résolutions, un pipeline — le coût d’une couverture visuelle ne devrait pas être un poste à défendre en comité budgétaire. La page de tarifs est rédigée en chiffres clairs : ce que chaque palier inclut, ce qui compte comme un run et où se trouve le plafond. Aucun devis sur mesure pour les équipes qui veulent simplement livrer l’UI qu’elles ont conçue.

Capture opinionnée, pas une simple librairie

Stabilisation, préparation des polices, épinglage d’animations et scroll-stitching sont des fonctionnalités de plateforme — pas des snippets à maintenir dans votre propre dépôt.

Diff perceptuel, pas un compteur de pixels

Le moteur de diff comprend l’anti-aliasing et le rendu sous-pixel ; les micro-décalages invisibles ne noient pas les régressions qui vous importent vraiment.

La revue comme action de premier ordre

Les baselines ne bougent que lorsqu’une personne autorisée accepte le changement. Chaque mise à jour est auditable. Aucune dérive silencieuse.

Hébergé en UE par défaut

Captures, métadonnées et historique de revue vivent sur une infrastructure européenne. Aucune option à activer pour les équipes tenues à cette posture.

Ce que ScanU attrape

Les régressions qui atteignent silencieusement la production

La plupart des bugs qu’une plateforme de régression visuelle attrape ne sont pas exotiques. Ce sont les petites cassures sans relief, faciles à manquer, qui passent sous le radar des reviewers parce qu’aucune assertion ne les surveille. Voici un échantillon des catégories que ScanU est spécifiquement conçu pour faire remonter.

Les bugs visuels se regroupent dans une poignée de motifs récurrents. Chacun paraît trivial en isolé ; chacun peut partir en production sans un seul test rouge. Tous sont remontés comme diff lors du prochain passage de ScanU, avant que la PR ne soit mergée.

  • Décalages d’espacement. Un utilitaire de gap passe de 16 à 20 pixels ; une grille de cartes qui respirait paraît soudain étriquée sur mobile. Le HTML est inchangé ; la mise en page ne l’est pas.
  • Mises en page cassées après déploiement. Une montée de version du pipeline laisse tomber un plugin PostCSS qui autopréfixait backdrop-filter. Sur Safari, une barre de navigation rend soudain opaque là où elle floutait.
  • Régressions CSS par décalage de spécificité. Un changement d’ordre de classes Tailwind, une nouvelle couche utilitaire ou une cascade refactorisée modifient subtilement la règle gagnante — un titre perd sa couleur d’accent sur une poignée de pages.
  • Points de rupture responsive défaillants. Un nouvel item de nav déborde au breakpoint tablette et repasse sur une deuxième ligne, poussant le hero sous la ligne de flottaison sur iPad et sur les grands Android.
  • Différences de rendu entre navigateurs. Un design qui s’appuie sur text-wrap: balance est net sur Chrome mais reste déséquilibré sur les moteurs qui ne l’ont pas encore livré. Sans contrôle cross-browser, c’est invisible sur la machine du développeur.
  • Dérive de polices et de typographie. Un fournisseur de polices échange un subset, les graisses se décalent de cent grammes, et chaque paragraphe d’un site marketing se reflow d’un quart de ligne. La densité de copie change ; aucun diff dans le dépôt ne l’explique.
  • Régressions de widgets tiers. Un éditeur de bannière de consentement déploie une mise à jour qui rend le bouton d’acceptation invisible sur les thèmes sombres. Votre taux de conversion chute ; vos tests passent.
  • Dérive du design system. Un composant bouton change l’offset de son focus ring. Vingt consommateurs dépendent de ce composant. Vingt pages ont maintenant un rendu subtilement différent. Personne ne relit vingt pages à la main.
  • Bugs visuels qui s’échappent en production. Tous ceux ci-dessus, multipliés par les routes et les breakpoints que personne n’ouvre dans une semaine donnée, sur les navigateurs que personne dans l’équipe n’utilise au quotidien.

L’ aperçu des fonctionnalités détaille les primitives de détection — tolérances perceptuelles, régions masquées, capture au scroll, branching de baseline — et montre à quelle catégorie ci-dessus chacune répond. Pour la plupart des équipes, la version courte tient en trois phrases : si quelque chose change visuellement, ScanU le remarque ; si c’est attendu, vous l’acceptez en un clic ; sinon, vous l’avez attrapé avant qui que ce soit d’autre.

FAQ

Les questions qui méritent une réponse avant d’adopter un outil de test visuel

Prochaines étapes

Attrapez les régressions avant vos utilisateurs

La manière la plus rapide de décider si le test de régression visuelle a sa place dans votre pipeline est d’en exécuter un, une fois, contre un projet que vous livrez déjà. ScanU est gratuit pour commencer, se câble en quelques minutes à un job CI existant et produit son premier diff dès le commit suivant.

La plupart des équipes démarrent avec une seule page à fort trafic sur trois navigateurs et trois résolutions. C’est suffisant pour voir la plateforme à l’œuvre, et suffisant pour attraper la prochaine vraie régression que votre suite de tests actuelle aurait manquée.

À partir de là, le périmètre grandit avec la confiance de l’équipe : plus de pages, plus de breakpoints, couverture au niveau composant sur le design system, status check obligatoire sur chaque pull request. Pas de rendez-vous à prendre, pas d’onboarding sur mesure, pas d’engagement minimum.