skip to content
@CKDML

Teszteltem a Claude Sonnet 4.5-öt a ChatGPT-5 és az Opus 4.1 ellen: Az eredmények meglepőek

8 perc olvasás
Claude Sonnet 4.5 vs ChatGPT-5 vs Opus 4.1 Comparison

Loading youtube content...

Tartalomjegyzék

Amikor a Claude (Anthropic) kiadta a Sonnet 4.5-öt azzal az állítással, hogy ez "a világ legjobb kódoló modellje", tudtam, hogy ezt tesztelnem kell.

Végül is a ChatGPT-5 most jött ki és hullámokat vert az AI közösségben. És az Opus 4.1 hónapok óta a kódoló AI szeretett királya volt. Vajon ez az új Sonnet modell tényleg le tudná trónolni mindkettőt?

Úgy döntöttem, hogy mind a három modellt azonos kódolási kihívásokon futtatom keresztül, hogy kiderítsem, melyik teljesít igazán a legjobban valós forgatókönyvekben. Amit felfedeztem, megváltoztatta a nézőpontomat arról, hogy mit kellene a "legjobb" AI kódolási asszisztensnek tekintenünk.

A tesztelési módszertan

A tisztesség kedvéért minden modellnek pontosan ugyanazokat a promptokat és kihívásokat adtam. Nincs kézenfogás, nincs finomhangolás a próbálkozások között (legalábbis eleinte nem). Csak tiszta teljesítmény.

Itt van, amit teszteltem:

1. kihívás: Játékfejlesztés

Azt kértem minden modelltől, hogy hozzon létre egy teljesen funkcionális Angry Birds játékot, ami működik a böngészőben. A követelmények egyszerűek voltak: tedd szórakoztatóvá, adj hozzá animációkat, győződj meg róla, hogy tényleg működik, és legyen vizuálisan vonzó.

2. kihívás: Landolóoldal tervezés

Megbíztam minden modellt egy professzionális landolóoldal létrehozásával email marketing ügynökségek számára. A cél egy konverzióra fókuszált dizájn volt megfelelő szövegírással, vizuális vonzerővel és a meglévő márkakövetelmények betartásával.

A modellek hozzáfértek referencia anyagokhoz és utólagos kérdéseket tehettek fel. Azt akartam látni, hogyan kezelik azokat a komplex, valós világ feladatokat, amelyekkel a fejlesztők és tervezők nap mint nap szembesülnek.

1. forduló: Az Angry Birds kihívás

Claude Sonnet 4.5: A sebességi démon, ami összeomlott

A Sonnet 4.5 végzett először. Körülbelül egy percről beszélünk a többiek 5-10 percéhez képest. Lenyűgöző, igaz?

Ne olyan gyorsan.

Amikor megnyitottam a játékot, első ránézésre vizuálisan vonzónak tűnt. Jó grafikák, szép elrendezés. De abban a pillanatban, amikor megpróbáltam játszani, minden összeomlott.

A csúzli mechanika teljesen el volt rontva. Nem tudtam rendesen hátrahúzni. A madár alig repült. És amikor elkerülhetetlenül veszítettem, a játék teljesen összeomlott. Nem volt mód újraindítani az egész oldal frissítése nélkül.

Lényegében játszhatatlan volt.

Ítélet: Szép, de elrontott.

Claude Opus 4.1: A váratlan bajnok

Az Opus 4.1 tovább tartott a kód generálásával, de a kimenet minőségében való különbség éjszaka és nappal volt.

Először is adott egy tényleges belépési képernyőt utasításokkal, hogyan kell játszani. Szép érintés.

Amikor rákattintottam a "Játék" gombra, a mechanikák tökéletesen működtek. A csúzli simán reagált. A fizika jól érzett. Az ütközésérzékelés pontos volt. A legfontosabb, hogy tényleg szórakoztató volt játszani.

Azon kaptam magam, hogy több szinten mentem át, őszintén élvezve az élményt. Egy egyszerű promptból való játékfejlesztés első kísérleteként ez figyelemreméltóan jó volt.

Ítélet: Az Opus elsöpörte ezt a kihívást.

ChatGPT-5: A zavaros káosz

A ChatGPT-5 a legtovább tartott a kód generálásával. Amikor végül befejezett, megnyitottam azt, amit "Slingbirds"-nek nevezett.

Őszintén nem tudtam kitalálni, mit kellett volna csinálnom. A felület zavaros volt. Úgy tűnt, van valami bowling-szerű mechanika? A madarak még csak nem is voltak láthatóak. Körbe-körbe kattintgattam, próbálva megérteni, de a játék lényegében nem működött.

Ítélet: Még csak nem is a versenyben.

2. forduló: Második esélyek

Nem vagyok az a típus, aki egyetlen próbálkozás alapján ítél. Talán a Sonnet 4.5-nek csak rossz napja volt. Mindegyik modellnek adtam még egy esélyt kissé finomított promptokkal.

Sonnet 4.5: Még mindig küzd

A Sonnet 4.5 második próbálkozása marginálisan jobb volt. A játék betöltött, és láthattam némi javulást a felületben. De a fizika még mindig alapvetően el volt rontva. A madár mozgása rosszul érzett, és a játékélmény inkább frusztráló volt, mint szórakoztató.

ChatGPT-5: Még rosszabb

Valahogy a ChatGPT-5 második próbálkozása még zavarosabb volt, mint az első. A kimenet elég rossz volt ahhoz, hogy úgy döntsek, nem vesztegetek rá több időt.

Opus 4.1: Következetes kiválóság

Még csak nem is zavartattam magam azzal, hogy újra teszteljek az Opus 4.1-et a játékhoz. Már tökéletesen működött.

Az Ultra Think kísérlet

A Claude modelljei rendelkeznek egy "kiterjesztett gondolkodás" vagy "ultra think" módnak nevezett funkcióval. Úgy döntöttem, adok a Sonnet 4.5-nek egy utolsó esélyt ezzel a funkcióval engedélyezve, gondolván, hogy talán csak több feldolgozási időre volt szüksége ahhoz, hogy tényleg teljesítse a kihívást.

Az eredmény? Majdnem ugyanolyan rossz, mint az első próbálkozás.

Ez elgondolkodtatott: talán a Sonnet 4.5 rendkívül specifikus, jól kidolgozott promptokat igényel a jó teljesítményhez. Eközben úgy tűnik, az Opus 4.1 kezeli a homályosabb utasításokat és még mindig minőségi eredményeket szállít.

2. kihívás: Landolóoldal tervezés

Itt váltak a dolgok érdekessé.

Megkértem mind a három modellt, hogy hozzon létre egy konverzióra fókuszált landolóoldalt email marketing ügynökségek számára. Hozzáférésük volt a cégem meglévő weboldalához, márka irányelvekhez és dokumentációhoz. A cél az volt, hogy valami professzionálisan kinéző dolgot hozzanak létre, ami illeszkedik a dizájn rendszerünkhöz, és ténylegesen konvertálja a látogatókat leadekké.

Az eredmények meglepőek voltak

Anélkül, hogy kezdetben felfedtem volna, melyik modell melyik oldalt hozta létre (vakon akartam értékelni őket), itt van, amit találtam:

1. oldal: Tiszta, de általános
Ez a landolóoldal professzionálisan nézett ki, de egy kicsit sablonszerűnek érzett. A szöveg tisztességes volt, de semmi különleges. Minden alapvető pontot megütött, de hiányzott belőle a személyiség. A vizuális dizájn biztonságos volt.

2. oldal: Következetlen, de ambiciózus
Ez az oldal sok mindent próbált csinálni. Néhány szakasz kiváló volt, mások nem illettek a márkához. A színválasztások helyenként megkérdőjelezhetőek voltak, ami nehézzé tette néhány szöveg olvasását. Több iterációs körre volt szükség az olvashatósági problémák kijavításához.

3. oldal: Következetes és konverzióra fókuszált
Ez az oldal azonnal kitűnt a dizájn következetességével. Mindenhol fenntartotta márka szabványainkat, hatékonyan használta a fehér teret, és a szövegírás éles volt. A GYIK szakasz pontosan azokat a kérdéseket tette fel, amelyeket a potenciális ügyfeleknek lennének. Az általános struktúra értelmes volt konverziós szempontból.

A nagy leleplezés

  • Az 1. oldal a ChatGPT-5 volt. Szilárd, de semmi látványos.
  • A 2. oldal az Opus 4.1 volt. Ambiciózus, de munkát igényelt.
  • A 3. oldal a Sonnet 4.5 volt. Teljesen teljesítette ezt a kihívást.

2. tesztelési forduló: Friss kezdet

Hogy megbizonyosodjak arról, hogy a landolóoldal eredményeket nem befolyásolta, hogy a modellek látták egymás munkáját, teljesen új csevegést kezdtem és megkértem a Sonnet 4.5-öt, hogy ehelyett Facebook hirdetési ügynökségek számára hozzon létre landolóoldalt.

Az eredmények ismét lenyűgözőek voltak. A Sonnet 4.5 erős következetességet mutatott a dizájnban, összességében kevesebb hibát vétett, és jól megértette a konverzió optimalizálási követelményeket.

Igen, kezdetben elrontott néhány színválasztást, ami olvashatatlanná tette a szöveget. És igen, 3-4 visszajelzési körre volt szükség ahhoz, hogy minden rendben legyen. De a végső kimenet őszintén jó volt.

A struktúra, a vizuális hierarchia, a kevesebb szó használatának választása, de mindegyik számít - minden együtt működött kohezíven.

Amit megtanultam: Nincs "legjobb" AI modell

Itt van az őszinte véleményem órák tesztelése után ezekről a modellekről:

A Claude Opus 4.1 a következőkben jeleskedik:

  • Kreatív problémamegoldás
  • Játékfejlesztés és komplex logika
  • Homályos vagy tökéletlen promptok kezelése
  • Első próbálkozásra helyesen csinálni

A Claude Sonnet 4.5 a következőkben jeleskedik:

  • Strukturált dizájn feladatok
  • Következetesség és a részletekre való odafigyelés
  • Landolóoldalak és webdizájn
  • Megállapított minták követése

A ChatGPT-5 a következőkben jeleskedik:

  • Nos... még mindig ki próbálom találni ezek alapján a tesztek alapján

Az az állítás, hogy a Sonnet 4.5 "a világ legjobb kódolási modellje" egyszerre igaz és megtévesztő. Teljesen attól függ, mit épít.

Webdizájnhoz, landolóoldalakhoz és olyan feladatokhoz, amelyek szigorú ragaszkodást igényelnek a dizájnrendszerekhez, a Sonnet 4.5 kiváló. Kreatív problémamegoldáshoz, játékfejlesztéshez és olyan feladatokhoz, amelyek intuíciót igényelnek tökéletlen utasításokkal, az Opus 4.1 még mindig a bajnok.

A prompt minőségi tényező

Egy mintát észrevettem: úgy tűnik, a Sonnet 4.5 specifikusabb, részletesebb promptokat igényel csúcsteljesítményhez. Amikor pontos utasításokat és tiszta hivatkozásokat adtam neki, kiemelkedő eredményeket szolgáltatott.

Az Opus 4.1 másrészt jól teljesített még a némileg homályos kezdeti promptjaimmal is. Intelligensen kitöltötte a hézagokat és jó feltételezéseket tett arról, amit akartam.

Ez nem feltétlenül a Sonnet 4.5 gyengesége. Csak annyit jelenthet, hogy másként van optimalizálva. Ha hajlandó vagy időt befektetni részletes promptok létrehozására, a Sonnet 4.5 figyelemreméltóan következetes kimenetet tud szolgáltatni.

Mi a helyzet a többi frissítéssel?

A Claude más érdekes frissítéseket is kiadott a Sonnet 4.5 mellett, amelyeket nem fedtem le részletesen:

Claude Agent SDK – Ez ígéretesnek tűnik autonóm ügynökrendszerek építésére. Kíváncsi vagyok, hogy ez hogyan hasonlít össze azzal, amit olyan eszközökkel építhetsz, mint az N8N.

Imagine With Claude – Ez úgy tűnik, a Claude válasza olyan platformokra, mint a Lovable, Bolt és V0. Lényegében egy AI-alapú app építő. Tervezem, hogy ezt egy jövőbeli összehasonlításban tesztelem.

A ChatGPT-5 jelenség

Emlékszel, amikor a ChatGPT-5 először indult és mindenki panaszkodott, hogy nem olyan jó, mint várták? Aztán két héttel később már tényleg jól teljesített?

Azt hiszem, valami hasonlót láthatunk a Sonnet 4.5-nél. A modellnek időre lehet szüksége ahhoz, hogy beálljon, vagy talán mindannyiunknak időre van szükségünk ahhoz, hogy megtanuljuk, hogyan promptoljuk hatékonyan.

Határozottan több időt fogok tölteni a Sonnet 4.5-tel, hogy lássam, javulnak-e az eredményeim, ahogy megtanulom az erősségeit és gyengeségeit.

Végső ítélet

Ha kényszerítenél, hogy egy modellt válasszak minden kódolási feladatomhoz, még mindig az Opus 4.1-et választanám. Ez a legsokoldalúbb és jól kezeli a feladatok legszélesebb választékát.

De konkrét használati esetekre, mint a landolóoldal tervezés, a Sonnet 4.5 most az én választásom. A következetesség és a dizájn részleteire való odafigyelés megéri a használatát ezekhez a konkrét feladatokhoz.

Ami a ChatGPT-5-öt illeti, több különböző forgatókönyvben kell tesztelnem. Ezek a konkrét kihívások nem játszottak az erősségeire, bármi is legyen az.

Mi a te tapasztalatod?

Kíváncsi vagyok hallani másoktól, akik tesztelték ezeket a modelleket. Hasonló eredményeket látsz? Találtál olyan használati eseteket, ahol a Sonnet 4.5 igazán ragyog?

Hagyd a gondolataidat a videó megjegyzéseiben, és mondd el, mit szeretnél, ha legközelebb tesztelnék.

Nézd meg a teljes tesztelési folyamatot itt: https://youtu.be/TAGUl0Xj7xg

A videó minden próbálkozást, minden kudarcot és minden iterációt valós időben mutat. Ha döntéseket hozol arról, hogy melyik AI kódolási asszisztenst használd a projektjeidhez, érdemes végignézni az egészet.


Készen állsz az AI munkafolyamatod fejlesztésére? Iratkozz fel mélyreható AI eszköz összehasonlításokért és valós világbeli tesztelésért.