IA et no code : quel avenir pour le web design ?
Pour bien comprendre de quoi on parle, il faut d’abord faire la différence entre l’IA et le no/low code.
L’IA, on peut la retrouver partout, même dans des domaines aussi variés que le droit, la banque, la compta, le cinéma, le graphisme…On peut remonter jusqu’en 1956 pour voir les premiers ordinateurs s’attaquer à des théorèmes mathématiques, à l’époque on appelait ça de l’“Intelligence Artificielle”. Et depuis, ça n’a fait que s’améliorer !
Citons quelques exemples connus, Yahoo en 1994 avec sa barre de recherche, Facebook en 2004 avec son algorithme de recommandations, Deepl en 2017 qui nous a bluffé avec ses traductions linguistiques. Et aujourd’hui Chat GPT. Nous assistons à une transformation majeure et pas seulement technologique, comme le souligne Alexei Grinbaum, membre du Comité national pilote d’éthique du numérique : « L’homme n’a plus le privilège de la parole ».
*directeur de recherche au CEA-Saclay et président du Comité opérationnel d’éthique du numérique du CEA, membre du Comité national pilote d’éthique du numérique, spécialiste de la théorie de l’information quantique.
Les IA générent du texte, des images, des vidéos juste en répondant à nos demandes. On les appelle les “Intelligences Artificielles Génératives”.
Maintenant, le no/low code, c’est un peu plus simple à comprendre. Ce sont des interfaces où tu peux créer des sites web sans toucher une seule ligne de code (no code), ou avec très peu de code (low code). C’est intéressant pour les web designers ou même les entrepreneurs qui veulent des solutions numériques pour leur start’up. Ils peuvent se tourner vers Webflow, flutter, Wix, Goodbarber pour ne citer qu’eux.
Maintenant qu’on a posé les bases, penchons-nous sur la vitesse à laquelle ces IA génératives se perfectionnent. En janvier 2023, on était tous épatés par les rendus de Midjourney, Dall-e, même si y avait quelques soucis de stabilité avec des mains qui poussaient à des endroits bizarres, des dents qui sortaient de nulle part… Et aujourd’hui, on a des teasers de film (comme Outworld), des courts-métrages (Le court-métrage d’Anna Apter “Imagine”, a remporté deux prix au prestigieux Nikon Film Festival), des BD (genre initial_A de Thierry Murat), des campagnes publicitaires (comme chez Undiz). Et là, c’est juste le début de notre aventure avec l’IA. Mais soyons réalistes, ces solutions sont majoritairement payantes.
Aujourd’hui, ces IA peuvent générer des portraits ultra réalistes, et elles arrêtent pas de progresser sur des trucs comme les scènes panoramiques, la marche, le mouvement en général. Imagine, elles arrivent même à créer les images intermédiaires entre deux images fixes pour faire une vidéo ! Par exemple, si tu as une femme qui tend le bras pour prendre une pomme, l’IA peut créer toutes les images intermédiaires entre la pomme sur la table et la pomme dans la main.
C’est impressionnant, hein ? Et tout ça, c’est grâce à des millions de données que l’IA utilise pour comprendre ce qui se passe “logiquement” entre ces deux moments. Pour la vidéo, il y a Runway avec GEN-1 GEN-2, Sora d’Open AI, Topas IA, Vizcom (3D). Mais comment est-ce qu’on peut utiliser tout ça dans le design d’interface ?
On sait que l’IA est déjà bien implantée dans des logiciels de design graphique comme Adobe Photoshop, Illustrator, et même Canva (oui, même si ça fait mal à la communauté de le dire). Et là, tout récemment, l’équipe d’Adobe Research a sorti le “Project Music GenAI Control” pour générer de la musique avec l’IA.
Et c’est pareil pour les logiciels de prototypage pour le web et le mobile. Galileo AI génèrent des interfaces en 1 prompt, ou même le plugin Relume dans Figma qui génère des interfaces juste en suivant nos indications.
Exemple de prompt : interface pour prise de rendez-vous médicale avec l’image d’un médecin souriant.
Oui, un prompt, ce sont des mots. Oui, on doit repasser par les mots, nous, gens de l’image
C’est clair que tout ça peut faire un peu peur, mais faut pas oublier que l’IA, elle est douée pour automatiser des tâches. Par contre, tous les éléments variables comme les données d’un projet issues d’un contexte, d’une réflexion, d’une personnalisation doivent être renseignés. Et notre arbitrage est nécessaire une fois que l’IA a généré son livrable. Chat GPT invente des sources, les IA génératives d’images déforment et tout ceci portent un nom dans le domaine de l’intelligence artificielle : des hallucinations. Ce sont des réponses fausses ou trompeuses présentées comme un fait certain.
L’IA est fiable pour nous donner des templates, des modèles, un peu comme ce que WordPress a fait à son époque pour nous éviter de créer chaque site de zéro. Et grâce à ça, on peut se concentrer sur d’autres aspects du projet, développer d’autres compétences, faire évoluer notre société et nos métiers.
C’est sûr que l’IA prédictive va sûrement être encore plus proactive à l’avenir, elle va mieux comprendre nos besoins et nos contextes. Mais on a déjà eu à s’adapter à des nouveaux outils par le passé, comme l’appareil photo ou l’ordinateur personnel. On saura s’adapter à celui-là aussi !
Je terminerai sur une note pédagogique. Après tout, pourquoi continuer à apprendre alors que les IA sont si performantes ? Pourquoi continuer à suivre des formations ? Tout simplement parce que l’outil ne suffit pas. La création et la réflexion sont le fruit d’une synergie que l’IA est encore très loin de pouvoir remplacer. Notre cerveau reste l’outil le plus performant. Après tout, l’appareil photo n’a pas fait de nous tous des Doisneaux, Illustrator des Paula Sher, … Et pour penser, nous devons avoir les idées dans notre tête, donc veillez à où vous portez votre attention, car c’est encore un privilège qui nous appartient.
Charlène Tognoli, Responsable de la filière numérique.