option
Maison
Nouvelles
Gemini Pro 2.5: un puissant assistant de codage représentant une menace majeure pour le chatpt

Gemini Pro 2.5: un puissant assistant de codage représentant une menace majeure pour le chatpt

19 avril 2025
142

Lorsqu'il s'agit d'évaluer l'IA pour l'assistance au codage, j'ai développé un ensemble de quatre tests standardisés. Ces tests sont cruciaux pour évaluer dans quelle mesure une IA peut soutenir vos efforts de programmation. Après tout, la dernière chose dont vous avez besoin est une IA qui ajoute encore plus de bugs à votre code, n'est-ce pas ?

Il y a quelque temps, un lecteur a remis en question mon approche, suggérant que les IA pourraient mieux performer avec des défis différents. C'est un point valable, mais je m'en tiens à ces tests car ils sont simples. J'utilise PHP et JavaScript, qui ne sont pas les langages les plus difficiles, et j'exécute quelques requêtes de script via les IA. Cette cohérence nous permet de comparer directement les performances.

Les tests incluent l'écriture d'un plugin WordPress simple, la réécriture d'une fonction de chaîne, la recherche d'un bug qui m'a autrefois posé problème, et l'utilisation d'outils de programmation pour extraire des données de Chrome. C'est comme apprendre à quelqu'un à conduire — vous ne le laisseriez pas s'élancer sur une autoroute s'il ne peut même pas sortir de l'allée.

À ce jour, seul le modèle GPT-4 (et supérieur) de ChatGPT a réussi tous ces tests. Fait intéressant, Perplexity Pro a également réussi, mais c'est parce qu'il repose sur la série de modèles GPT-4. En revanche, Microsoft Copilot, malgré l'utilisation du même modèle, a échoué à tous les tests.

Le Gemini de Google n'a pas fait beaucoup mieux. Initialement, Bard (le premier nom de Gemini) a échoué à la plupart des tests, et même Gemini Advanced, qui coûte 20 $ par mois, a échoué à trois des quatre tests l'année dernière.

Mais maintenant, Google a introduit Gemini Pro 2.5, et il est gratuit pour tout le monde, bien qu'avec des limites de taux. J'ai atteint ces limites après seulement deux invites lors de mes tests, ce qui est un peu restrictif. Il est possible que la limitation de taux soit basée sur la complexité des tâches plutôt que sur le nombre d'invites. Mes deux premières requêtes consistaient à écrire un plugin WordPress complet et à corriger du code, ce qui pourrait avoir consommé ma limite plus rapidement que des requêtes plus simples.

Malgré l'attente, les résultats étaient surprenants et en valaient la peine.

Test 1 : Écrire un plugin WordPress simple

Cette fois-ci, Gemini Pro 2.5 a fait un carton. Le défi consistait à créer un plugin WordPress qui fournit une interface utilisateur pour randomiser les lignes d'entrée et répartir les doublons afin qu'ils ne soient pas adjacents.

Auparavant, Gemini Advanced n'avait pas créé de tableau de bord backend mais nécessitait un shortcode dans le texte d'une page publique. Il avait créé une interface utilisateur basique, mais cliquer sur le bouton ne faisait rien. Peu importe comment j'ajustais les invites, cela échouait toujours.

Mais Gemini Pro 2.5 a fourni une interface utilisateur solide, et le code fonctionnait comme prévu. Ce qui m'a vraiment impressionné, c'était le choix de l'icône pour le plugin. La plupart des IA ignorent ce détail, mais Gemini Pro 2.5 a choisi une icône pertinente dans l'ensemble Dashicon de WordPress sans aucune incitation de ma part. Le code était bien documenté, chaque segment majeur étant clairement expliqué.

randomizer-ui

Capture d’écran par David Gewirtz/ZDNET

icon

Capture d’écran par David Gewirtz/ZDNET

Test 2 : Réécrire une fonction de chaîne

Dans le deuxième test, j'ai demandé à Gemini Pro 2.5 de modifier un code de traitement de chaîne pour gérer les dollars et les cents, pas seulement les entiers. ChatGPT a réussi ce test, tandis que Bard a finalement réussi après des échecs initiaux.

La dernière fois, Gemini Advanced a échoué de manière subtile mais dangereuse. Il n'acceptait pas les entrées non décimales et limitait incorrectement les nombres à deux chiffres avant la virgule, mécomprenant le concept des dollars et des cents. Ce type d'erreur pourrait entraîner une avalanche de rapports de bugs si elle n'est pas détectée.

Gemini Pro 2.5, cependant, a réussi brillamment. Il a correctement vérifié les types d'entrée, supprimé les espaces, corrigé l'expression régulière pour gérer les zéros en début de chaîne et les entrées uniquement décimales, et rejeté les entrées négatives. Le code était bien commenté, avec un ensemble complet d'exemples de tests. Bien qu'il n'ait pas permis les virgules de regroupement ou les symboles de devise en tête, ce étaient des erreurs contrôlées, pas des plantages, donc je considère cela comme un succès.

Test 3 : Trouver un bug

Une fois, j'ai lutté avec un bug dans mon code qui aurait dû fonctionner mais ne le faisait pas. Le problème était délicat, et alors que je me concentrais sur le nombre de paramètres passés, ChatGPT m'a fait remarquer que je devais changer quelque chose dans un hook.

Bard et Meta ont tous deux manqué la cible, suivant le même chemin futile que moi. Gemini Advanced, en février 2024, a suggéré de chercher "probablement ailleurs dans le plugin ou WordPress", ce qui n'était pas utile.

Avec Gemini Pro 2.5, j'ai atteint la limite de taux après les deux premiers tests, donc j'ai dû attendre le lendemain. Quand j'ai enfin effectué le test, Gemini Pro 2.5 a non seulement trouvé le bug mais m'a aussi montré exactement où le corriger, avec un diagramme utile.

limit

Capture d’écran par David Gewirtz/ZDNET

map

Capture d’écran par David Gewirtz/ZDNET

Test 4 : Écrire un script

Le test final implique de comprendre le modèle d'objet interne de Chrome, AppleScript et Keyboard Maestro, un outil de création de macros. Il s'agit d'ouvrir des onglets Chrome et de définir l'onglet actif en fonction d'un paramètre.

La plupart des IA gèrent bien les parties Chrome et AppleScript mais luttent souvent avec Keyboard Maestro. Gemini Pro 2.5, cependant, a réussi. Il a écrit le code nécessaire pour passer correctement les variables, ajouté des vérifications d'erreurs et des notifications utilisateur, et même fourni des étapes pour configurer Keyboard Maestro.

maestro

Capture d’écran par David Gewirtz/ZDNET

Avec les quatre tests réussis, Gemini Pro 2.5 rejoint le groupe élite des outils d'IA qui peuvent véritablement aider dans les tâches de programmation.

Il ne s'agissait que d'une question de temps avant que l'IA de Google ne rattrape les offres d'OpenAI. L'article de Google de 2017 "Attention is all you need" a lancé le boom de l'IA générative, donc il n'est pas surprenant qu'ils aient atteint ce point. Gemini Pro 2.5 est plus lent que ChatGPT Plus, prenant entre 15 secondes et une minute pour répondre, mais la précision est plus importante que la vitesse.

Google a également rendu Google Code Assist gratuit avec des limites généreuses, mais cela n'a de valeur que si le code généré est de haute qualité. Avec Gemini Pro 2.5, cette qualité est maintenant évidente. Bien que marqué actuellement comme "expérimental", je m'attends à ce que Google affine cela bientôt, potentiellement en offrant une version payante avec moins de limites de taux.

Il est clair que Gemini Pro 2.5 est prêt à défier ChatGPT dans le domaine de l'assistance au codage. Je vais garder un œil attentif sur ce développement et partager plus de mises à jour bientôt.

Article connexe
Le paiement par agent de Mastercard améliore la recherche par IA avec des transactions fluides Le paiement par agent de Mastercard améliore la recherche par IA avec des transactions fluides Les plateformes de recherche traditionnelles et les agents IA nécessitent souvent que les utilisateurs changent de fenêtre pour finaliser leurs achats après avoir trouvé des produits ou services.Maste
OpenAI s'engage à corriger après les réponses trop conciliantes de ChatGPT OpenAI s'engage à corriger après les réponses trop conciliantes de ChatGPT OpenAI prévoit de réviser son processus de mise à jour du modèle AI pour ChatGPT après qu'une mise à jour a provoqué des réponses excessivement flatteuses, suscitant de nombreux retours d'utilisateurs
OpenAI Dévoile des Modèles d'IA Avancés pour le Raisonnement, o3 et o4-mini OpenAI Dévoile des Modèles d'IA Avancés pour le Raisonnement, o3 et o4-mini OpenAI a présenté mercredi o3 et o4-mini, de nouveaux modèles d'IA conçus pour faire une pause et analyser les questions avant de répondre.OpenAI présente o3 comme son modèle de raisonnement le plus s
commentaires (22)
0/200
JoseGonzalez
JoseGonzalez 31 juillet 2025 03:42:05 UTC+02:00

Just read about Gemini Pro 2.5 and wow, those coding tests sound intense! 😅 Curious if it’ll really outshine ChatGPT or just hype. Anyone tried it yet?

WalterLewis
WalterLewis 28 juillet 2025 03:19:30 UTC+02:00

This AI coding battle is heating up! Gemini Pro 2.5 sounds like a beast, but I’m curious if it’s really outpacing ChatGPT or just hype. 🤔 Anyone tried it on real projects yet?

ScottKing
ScottKing 25 avril 2025 20:14:57 UTC+02:00

Gemini Pro 2.5は本当に強力!コーディングの助けにはChatGPTよりずっと優れてる。私のテストに通してみたら、完璧に合格したよ。唯一の欠点はちょっと高価なこと。でも、コーディングに本気なら、その価値はあるよ!💻

StevenGreen
StevenGreen 25 avril 2025 05:28:01 UTC+02:00

Gemini Pro 2.5 es una bestia. Es mucho mejor que ChatGPT para ayudar en la programación. Lo probé con mis tests y aprobó con honores. El único problema es que es un poco caro. Pero si te tomas en serio la programación, vale cada centavo! 💻

AlbertWalker
AlbertWalker 25 avril 2025 00:10:06 UTC+02:00

Gemini Pro 2.5 is a beast! It's way better than ChatGPT for coding help. I ran it through my tests and it passed with flying colors. Only downside? It's a bit pricey. But if you're serious about coding, it's worth every penny! 💻

WillGarcía
WillGarcía 21 avril 2025 14:06:31 UTC+02:00

ジェミニプロ2.5、コーディングの強力な助っ人だね!でも、バグ増やすAIは勘弁😅 テスト結果が気になる!

Retour en haut
OR