Hirdetés
-
Computex 2024: Íme a Project NeonStorm
ph Alaposan összetömörítette a PCIe 5.0 x4 SSD hűtését szolgáló vizes rendszert az ADATA.
-
Tényleg jobban fogyaszt a Peugeot, az Opel és a Citroen?
ma Mármint magukhoz képest, a Stellantis csoport márkáiban használt CMP platformhoz tartozó hajtáslánc optimalizációjának eredménye a mindennapokban is érezhető.
-
Megjelenési dátumot kapott a Conscript
gp Az I. Világháborús horror játék jövő hónapban érkezik.
Új hozzászólás Aktív témák
-
Teasüti
nagyúr
-
Teasüti
nagyúr
A bányászláz alatt nem volt diszkrét VGA a gépemben. 5700g volt majd egy évig. Olyan Xbox360 színvonalat simán megüti. Eve Online probléma nélkül ment. GTA 4 simán ment. World of Tanks is teljesen okés volt. De még a Stray-t is kijátszottam vele ami újabb cím, igaz csak 20-30 fps-el és ott már csak 720p-ben. De casual offline játéknál az még elmegy kategória, ha van hozzá Freesync monitor ami le is tud menni 20 fps-ig.
Amúgy meg asztal felbontása 4K volt. Ezzel se volt probléma. Böngésző görgetése közben kaptam vmi 90% terhelést 120 Hz-en (ez a plafon YUV420 módban, 144-et már nem ad ki). Multimédiára kifogástalan volt. AV1-et nem tud csak, de azt elnézem neki, mivel még a formátum sincs véglegesítve legutóbbi tudomásom szerint. Videót is vágtam vele. Alap vágásra tökéletes, de durván effektezve is eldöcög 16 giga vram mellett, ha van az embernek türelme kivárni.
Szóval ez a szint már elégséges mondjuk szülőknek, akik csak néha játszanak egy-egy megszokott játékkal vagy csak böngészgetnek. Mindezt alig pár wattból: az iGPU része teljes terhelésen fogyaszt annyit, mint a dVGA-m üresben.
80 Watt az egész APU csontra kihajtva. Teljesen néma volt a gép, amíg nem volt dVGA-m.
Szerintem a belépő kategóriának lassan el kellene tűnnie már a VGA-k piacán.[ Szerkesztve ]
-
Teasüti
nagyúr
Az valószínűleg a kurrens VGA-kon is még csak részlegesen gyorsított, mivel fejlesztés alatt álló formátumról van szó. RTX 3060-asom kb fele-fele arányban oldja meg NVDEC-ből és izomból, ha lehet hinni az Eszközkezelőnek.
Felteszem driver-ból valószínűleg támogatott az AV1 APU fronton is, csak mekkora arányban dolgoznak a fixfunkciós részegységek és mekkora arányban izommunka, passz. Mindenesetre Youtube-on 4K-s AV1 videót olyan 30-40 Wattból tud a 3060 lejátszani. Ennyiből talán menne a 65W TDP-s 5700g-nek is.
Majd ha véglegesítik a formátumot, csak aztán lehet számolni egy-két VGA generációval, mire 100%-ban gyorsítva lesz.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz MasterDeeJay #53 üzenetére
Intel Arc? Te vagy az első élő példa, akinél ilyet látok.
Nézz egy 4K videót AV1-en és mondd el nekünk hány Wattot fogyaszt a VGA teljes képernyős módban!
Állítólag a 3060 is hardveres. Nem tudom miért látok 3D terhelést is közben. Részben a böngésző is okozhatja, meg ugye a Windows Asztal is 4K@144-en kirajzolva már szignifikáns terhelést jelent. Szóval nem tudom mennyire lehet hinni az Eszközkezelőnek.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz MasterDeeJay #53 üzenetére
128 GB ramod van és ebből 64 az iGPU-nak kiosztva? Ezt vmi LLM-hez használod?
-
Teasüti
nagyúr
Érdekességképpen bekapcsoltam a Vega 8-at és néztem egy 8K AV1 videót YT-on, amit a kolléga is nézett feljebb. Windows Beállításokban csak átraktam az Edge-et iGPU-ra (Graphic Settings/Graphics Performance Preference) és megnéztem mit művel a Vega 8.
Hát, se videó dekóder, de általános számítás nem történt. Csak a 3D terhelés ugrott fel rajta - fura módon az a dVGA-n is durván megugrott. Lehet, ha kimenetet váltanék dVGA-ról iGPU-ra, akkor ez a jelenség megszűnne.Szóval magát a videót így a processzor számolta úgy 30% terhelésen az összes magon.
Eldobott képkocka nem volt. Szóval driver-es támogatás van AV1-re. Annyi, hogy szoftveres dekódolás történik.
Nekem, mint egyszerű fogyasztónak nem gondolom, hogy bármi hátrányom származna abból, hogy nincs hardveres AV1 dekódolás az 5700g-ben. Ez, hogy 10 Wattal kevesebbet fogyaszt a dVGA, mint a CPU 30%-on, ez olyan 1st world problem kb.
Gyakorlati jelentősége nincs igazán.
Hosszú hosszú évekig lehet fizetni a +10 Wattos villanyszámlát ezeknek a processzoroknak az árából, ha vkinek az AV1 hiánya deal breaker lenne.[ Szerkesztve ]
-
Teasüti
nagyúr
A természetfilmes videót nézted, amit MasterDeeJay nézett a screenshot-on? Az nem akadozik, csupán maga a videó 24p-s és rövid záridővel készült a felvétel. Ezért tűnik darabosnak. A videós leszarta a 180 fokos zárszöget. Különben a mozgásfelbontás beesne ilyen 720p-re (motion blur-ből fakadó részletvesztés) és nem lehetne demózni vele a 8K-t.
-
Teasüti
nagyúr
VP9 az hardveres. Azzal sose volt gond. (3D terheléseket ne nézd, az a két adapter közti jelenség).
Rendes AV1 videónál 4K@60-ig elég a processzor. 8K@60-nál már eldobálja a képkockákat. 8K@30 lehet menne még. De mire nekünk 8K-s monitorunk lesz, addigra ez a processzor már Bacsis kiállításán fog szerepelni.
Újra, a 3D terhelések nem mérvadók ebben a példában. Vmilyen okból abnormális terhelést ró a két adapterre az, hogy nem a megjelenítő hardver gyorsítja a böngészőt.
A dekódolás szoftveres volt, nem használt a Vega 8 dekódert itt. -
Teasüti
nagyúr
Ezzel elérkeztünk oda, hogy kinek mi a játék. PC Master Race neveltetésű Vér István nem is értem miért szól hozzá egy APU-s játék témakörhöz.
Viszont ha a grafika sokadlagos szempont és visszamegyünk a játék esszenciális élményéhez, akkor láthatjuk, hogy akár Steam-en is van sok ezer olyan indie vagy nem indie cím, ahol nem a grafikával akarják eladni a játékot. És még csak nem is a pixel art kategóriára gondolok itt - pedig az is reneszánszát éli.
Szóval ha azt nézzük, hogy a mostani APU-k ott tartanak, hogy 15 évvel ezelőttig bezárólag futtatják az AAA címeket max grafikán, majd van egy átmenet onnan napjainkig ultráról minimumra és még úgy is játszható marad nagyon sok AAA; meg mellette kb minden más indie is napjainkig bezárólag, mindezt úgy, hogy nem költöttél pénzt dVGA-ra, az azért nem gyenge szerintem.
Állítólag a mobilos játékipar az nagyságrendekkel nagyobb a PC-s játékiparnál és bármi, amire egy mobil SOC képes, azt egy APU is kényelmesen odateszi neked. Szóval játékból igazán nincs hiány APU-n se. Tulajdonképpen AAA játékon kívül nemigen van szükség VGA fejlesztésre egy átlag felhasználónak.[ Szerkesztve ]
-
Teasüti
nagyúr
válasz MasterDeeJay #94 üzenetére
Miért kerül ekkora hangsúly arra a kodekre? Épp feljebb tárgyaltuk, h a jelenlegi processzor generáció megoldja izomból a mostani monitor felbontásokon. Oszt még tartalom sincs rá egy-egy tesztvideót leszámítva. Mire az elterjed, addigra mindenki újítani fog kb.
-
Teasüti
nagyúr
válasz MasterDeeJay #97 üzenetére
Valószínűleg még semennyire. Win10, de még Win11 alatt sincs gyárilag mellékelve a kodek. YT-ban meg se jelenik a beállítás, amíg nincs telepítve. Meg amúgy is kb életemben másodszor néztem meg a YT beállításokat. Szerinted hány ember telepíti fel külön? Én is csak pár napja tettem fel a teszt erejéig, előtte csak a létezéséről tudtam. De r=1 júzer valószínűleg arról sem tud és telepítve se lesz, amíg nem Update-en keresztül kerül fel a gépre. Egyelőre még early adopter felhasználásról se beszélhetünk, mert még kísérleti stádiumban van és egy aktív fejlesztés alatt álló formátumról van szó. Mire ez úgy elterjed, mint a HEVC, addigra a mostani hardverek már elavulnak.
Nem tartom fontosnak még a hardveres AV1-et. Ez majd akkor lesz érdekes, mikor már az asztali médialejátszókban és kamerákban is hardveres AV1 lesz. Na onnantól lesz csak sarkalatos, ha megindul a konzumer tartalomgyártás is.A ventilátor felpörgése az egy jogos érv, de azt se tudom mekkora arányban érinti az embereket. 5700g - amit kritika ért az AV1 hiánya miatt - az egy 65W TDP-s processzor.
A legátlagosabb aftermarket cpu hűtő is könnyedén eldisszipál 100+ Wattokat. Nem gondolom, hogy bármelyik zavarba jönne egy APU-tól, még ha amaz 50% terhelésen is pörög a szoftver dekóder miatt. Főleg mivel ezek a processzorok már olyan kis területen fűtenek, hogy esélytelen lent tartani a maghőmérsékletet, mindegy mit teszel rá. Itt a ventillátor fordulatszámmal már nem a CPU hőmérsékletet lehet befolyásolni - hisz az terhelés alatt fixen throttling hőmérsékleten lesz -, hanem a boost órajelekre van csak hatással. A többit meg elintézi a thermal menedzsment procin belül, függetlenül attól, hogy maxon járatod a hűtést, vagy minimumon. Akinek meg gyári hűtője van, azt amúgy se zavarja szerintem a hang.[ Szerkesztve ]
-
Teasüti
nagyúr
-
Teasüti
nagyúr
Jah, Freesync Premium Pro kell hozzá. 20 fps-ig tud lemenni. Nálam speciel adott a dolog és jó kombó az APU-val.
A másik dologra meg nincs nagyon mit mondani. Kompromisszum nélkül nem én is értem miért tárgyalunk APU-s játékról?
Volt idő mikor a 30 fps volt a sztenderd konzolon és egy egész generáció azon nőtt fel. Abszolút játszható.
A PC Master Race meg akkoriban is már csak röhögött ezen.
De arányaiban 4-6x többet költenek és költöttek is vasra.[ Szerkesztve ]
-
Teasüti
nagyúr
Nemtom. Régen 60 fps vajsima PC Master Race tagja voltam. De akkoriban más volt a technika. Az akkori Vsync a kétezres évek elején csak felezni és harmadolni tudott. Később vmiért ez a képesség megszűnt (és onnantól csak fps cap-nél volt Vsync, alatta nem - előtte a Vsync le tudta korlátozni az fps-t felére vagy harmadára a képernyő frekvenciájának) és jött a töredezés, szóval a stabil 60 fps volt a kívánatos.
De mióta VRR van és nem töredezik a kép, azóta ez lényegtelené vált. Meg szintén a 2000-es évek közepétől jött a motion blur is a játékokba és már 60 fps se kellett a folyamatos mozgókép illúziójához. Ezen az LCD monitorok természetes blur-je még jobban segített, szóval a CRT-s 60-120 fps fluid (igaz teljesen éles egyben) képi megjelenítés már összehasonlítható lett a cinematikus képi világgal a modern játékokban LCD monitoron.
Most ott tartunk, hogy az én egykor finnyás és microstuttering-re érzékeny szememmel nem tudom megmondani, h mennyi fps-el megy egy játék, ha nem iratom ki a képernyő szélére. Persze a 20 fps az kitűnik. 30 már élvezhető. A fölött meg tényleg nem látok különbséget. 144 vagy 50, ugyanaz a képi élmény. Persze a monitor technika is sokat fejlődött azóta. A mostani monitoromon már ghosting se nagyon van és a válaszidő is remek.
Szóval én azt mondom, hogy ha teljesítménybeli kompromisszumokról esik szó, akkor érdemes megvizsgálni azt is milyen képernyőn játszunk.
Ha most egy régi 60 Hz-es VRR nélküli (akár CRT) monitort tennél elém, akkor köpködnék a 45 fps-re.[ Szerkesztve ]
-
Teasüti
nagyúr
Nem gondolom. Olcsó monitorokon is már ott a Freesync. Otthon fater három évente bever egy monitort ököllel. A legutóbbi random polcról levett 30k-s monitoron már ott a Freesync. Aki az elmúlt 5 évben monitort vett, ott jó eséllyel már van VRR támogatás. Tudom monitor az relatíve tartós használati tárgy. De azért nem olyan hatalmas nagy befektetés egy Freesync monitor, ha a kisebb belépő kategóriát nézem. Oké, a nagyobbak azok azok. Freesync Premium Pro ami lemegy 20 fps-ig, azt sem a belépő kategóriába teszik bele. De amikor felmegyek Árukeresőre csak úgy brahiból és sorba rendezem a monitorokat ár szerint, a legelső márkás példányban már ott a Freesync 30k-ért.
30k a PC-s iparban a zsebpénz kategória. VRR az már mindenben ott van, nem a high end kiváltsága.#117palacsa
+1
Covid alatt nem akartam dupla áron VGA-t venni.#119gbors
Input lag folyik a csapból is manapság. Nem írom alá. Én COD2 szervereken nőttem fel és irodai drótless optikai egérrel nyomtam és nem is voltam rossz helyeken a ranglistán.
Az az egér nem tudott se nagy gyorsulást, se nagy sebességet. Ez nem zavart abban, hogy játékot nyerjek.
E sportban megértem, ha vki az input lagon görcsöl. De ha nem versenyszerűen játszik vki, akkor ez csak amolyan sznobizmus. Nagyon-nagyon skill-esnek kell lenni ahhoz, hogy téged az input lag tartson vissza a fejlődésben. Meg merem kockáztatni, hogy a játékosok 98%-ának mindegy az input lag, mert simán nincsenek olyan reflexei, ahol ez számítana.
Átlag shooter játékos reakció ideje 150 ms körül van egeres célzásnál. Az ügyesebbek olyan 120 ms körül. A vérprofik 100 ms alatt. Ehhez képest ha te százezreket locsolsz rá a hardverre, hogy 20 ms input lag helyett kapj 10-et, hát az minimum megmosolyogtató.[ Szerkesztve ]
-
Teasüti
nagyúr
Na, nesze nekem. Itt van ez a reakció teszt, ami szerintem mai napig a legjobb. 200-220 ms-et kapok vezetékes Logi gamer egérrel 1000 Hz-es USB mintavétellel 144 Hz-es monitoron.
Az ég adta világon semmi különbség 60 és 120 Hz között az eredményemben. Pedig állítólag az egyik 16 ms latency megjelenítésben, a másik csak 8 ms.[ Szerkesztve ]
-
Teasüti
nagyúr
3x megy bele az input lagba
Miért is? Tripla puffer talán? Használ még vki manapság olyat?
End-to-end system latency-re itt egy nagyságrenddel kisebb értékeket látok példának. -
Teasüti
nagyúr
Áhh, már értem mire akartál kilyukadni. Valóban érezhető 30 fps alatt, hogy késve történnek a dolgok. Gondolom ha még azt írom, hogy Xbox kontrollerrel játszottam vezeték nélkül, akkor abból sejthető mennyire volt nekem fontos ez a tulajdonság.
Ez a fenti tesztben két játéknál lehet probléma közepes grafikán. Akkor a késleltetés és a linkelt cikk fényében az "immerzióval" sincs gond 22 játékkal a 24-es mintából. Reflex AMD-nél nem játszik, fejből meg nem tudom van-e ennek alternatívája az AMD Software: Adrenalin kezelőpultjában.
A helyzet az, hogy a játékos hamar megszokja a késleltetést, főleg gamepad-on. Oké, VR és társai az már tészta. Meg a kompetitív lövölde. De kanapés játéknál ez ritkán probléma.
Most mikor az ember billentyűzetről játszik arcade autós játékot, ott mennyire probléma 100 ms késleltetés? Semennyire.
Továbbra is tartom, hogy nagyon skill-esnek kell lenni, hogy neked a késleltetés szabjon gátat a győzelemben. Biztos vannak, akiknek hozzá tud tenni az életéhez vmit a 400 Hz-es monitor, de az a hardcore játékosok elenyésző kisebbsége. -
Teasüti
nagyúr
válasz Dinomano #223 üzenetére
Dehogy jelent meg rossz állapotban. Az egy egész jól sikerült alkotás. Az első cím ami valóban kihasználta az akkoriban még újnak számító 4 magos processzorokat. 270 órát tettem bele megjelenése után. Igen, gépigényes volt az tény. De a gépigényes =!= szarul optimalizált. Megfelelő vassal vajsimán ment, bármiféle röcögés nélkül. Core2Duo-val 4 Ghz felett gyönyörűen futott már a megjelenésekor is. 4 Ghz-re húzott Core2Quad-dal meg már multi közben se akadt be. C2D-vel azért volt akadás, mikor tucatjával repkedtek a rakéták jobbra-balra. Max grafikán már akkoriban alá kellett tenni 1 GB Vram-ot (ez akkor még felső kategória volt), és Ultra árnyékokkal valóban belassult kicsit. De az az árnyék effekt csak később került bele. Szóval GTA4-hez ideálisan egy erőmű kellett 2010-ben vagy mikor. De ha megvolt, akkor röccenés nélkül ment. De visszavéve a beállításokat is egészen jól skálázódott.
Ma meg egy 5700g-vel is elfut High beállításokon 60-70 fps körül.[ Szerkesztve ]
-
Teasüti
nagyúr
Nem rémlik, h bármelyik Stalker játékban lett volna olyan szintű fizika, ami kihajt 4 processzormagot. Ez akkoriban egyedülálló volt és úttörő. Ez volt az az időszak, amikor még mindenki szemöldököt emelgetett, hogy minek nekünk sokmagos processzor, amikor kb minden egy szálon fut. A Stalker meg egy egyszerű shooter, semmi technikai bravúr vagy innováció nem volt és szvsz grafikailag is a futottak még kategória mondjuk a Call of Duty szériához képest. Fura összehasonlítás. Hozz inkább egy fizikában erős sandbox játékot, ha a GTA4-et akarod hasonlítgatni!
[ Szerkesztve ]
-
Teasüti
nagyúr
Én játszottam a Call of Pripyat-tal, de egészen máshogy emlékszem rá. Nekem már a saját idejében is B kategóriásnak hatott grafikailag, ha már a grafikát hoztad fel a GTA ellenében.
Ez a környezet ez már 2009-ben is rég elavult volt.
Far Cry már 2005-ben köröket vert erre a grafikára:
-
Teasüti
nagyúr
válasz Dilikutya #233 üzenetére
Mint írtam 2 magos C2D-val szépen futott single-ben - nekem egy E8600 volt 4,5 Ghz körül ha az emlékezetem nem csal. Később lett egy Xeon ami a Q9500-asokkal volt egyenértékű. Ezzel már multi-ban is ha 10 ember lövöldözött rakétával egyszerre, akkor is ment. Persze aláírom az E8xxx és Q9xxx processzorok azok akkoriban voltak éppen aktuálisak. Aki akkor több generációs lemaradásban volt mondjuk egy 1 magos processzorral, ott megértem ha nincs jó tapasztalat.
De az elvitathatatlan, hogy a GTA4 az remekül skálázódik, ami NEM egy szarul optimalizált játék ismertetőjele (azt ugyanis onnan ismerni fel, hogy minimum grafikán is épp oly szarul fut mint maxon, mikrolaggol, stb). Két - akkor modern - mag kellett hozzá minimum és onnantól már nem volt gond. Bár nekem VGA-ból se volt gyenge, 1 GB Vram-ot alátettem. Szóval én azért emlékszem rá ilyen jó fényben, mert nálam simán futott.Emlékszem amúgy a visszhangjára, hogy előtte sokáig mindenki megkérdőjelezte a sokmagosok értelmét. Aztán ahogy jött az első fecske, hogy na itt ez a játék ami valóban kipörget 4 magot, azon meg ment a sírás, hogy nagy a gépigény.
[ Szerkesztve ]
-
Teasüti
nagyúr
Nem azért használ ennyi magot PC-n a GTA IV, mert erre volt készítve vagy ennyire erőforrás igényes volt, hanem ennyire el volt cseszve.
Őőő, hallottál már a párhuzamosításról?
Olyat nem lehet csak úgy véletlenül "elcseszve" programozni.
A mai napig nem triviális probléma a párhuzamosítás. Olyannyira nem alapvetés még 13 évvel később sem, hogy kifejezetten gyakori, hogy még négy magot se hajtanak ki a játékok. Ezt onnan látod, hogy van 10-20% terhelés a CPU-n. 8 magos processzoron 15% az úgy egy szálas futtatásnál történik (néhány százalék a háttérfolyamatokhoz kell Windows-nak).
Csak ismételni tudom magam: nagy gépigény =!= optimalizálatlan.[ Szerkesztve ]
-
Teasüti
nagyúr
Csak úgy kíváncsiságból, a stabil 60 fps az nálad a szarul fut kategória?
Lehet ezért beszélünk el egymás mellett.
Akkoriban még a 60/75 Hz volt az általános. Ez volt a 60 fps PC Master Race éra. Ez stabilan ment is a GTA4-el, ha adottak voltak a feltételek. Csak úgy finoman odabiggyeszteném, hogy ekkoriban a konzolok még 25/30 fps-el működtek. Hogy lehetne szarul optimalizált, ha egyszer szépen futott? Az, hogy 1 magos processzorokkal nem volt játszható, az nem a szoftver hibája. Akkoriban már négy magnál jártunk, leléptük a két magot is már legalább két generáció óta. Haladni kell a korral ha vki játszani akar PC-n. Ez régen is így volt, most is így van.[ Szerkesztve ]
-
Teasüti
nagyúr
A te tesztedből az látszik, hogy még IGP-vel is teljesen játszható a lista felső kétharmadával. Minimum grafikán. Egy szaros IGP-n. Max grafika és a minimum grafika között mondjuk a Intel HD graphics 4000 esetén a különbség a nem fut és a játszható között van épp. Igen, 30 fps az játszható: Xbox360 is annyit tudott. Kevés játékban volt csak 60 fps. Ez ezek szerint rosszul skálázódik?
Abban az időszakban meg még a 720p volt általános, 1080p az még nem is volt mindenkinek.
A 66 fps cap az nem tudom miért van, de azt se látom ez miért fontos. 66 fps az nem elég? Abban az időszakban, amikor kb minden LCD monitor 60 Hz-et tudott natív felbontásban?[ Szerkesztve ]
-
Teasüti
nagyúr
Tessék. Minimum grafika 720p-n. 500 fps. Nem értem hol a probléma.
Elnézést, paint-ben elmaradt a crop.
Amúgy így sok év távlatából tényleg nem néznek ki vmi jól a modellek. Nagyon alacsony a poligonszám. De maga a környezet részletessége, fizika, ezek rendben vannak. Jóval több élet van Liberty City-ben, mint bármelyik Stalker játékban.[ Szerkesztve ]
-
Teasüti
nagyúr
Ezt én is megfigyeltem a benchmark esetén. Éppen 66 fps-nél tetőzött nálam is. Ez szerintem a benchmark sajátossága lehet. Hisz nem végig 100%-ban olyan mozgalmas a jelenet, ami indokolná. Éles játékban megy az feljebb is.
Talán célszerűbb lenne játékban mérni a benchmark helyett. Lehet egészen másképp nézne ki a grafikon.Amit még észrevettem, hogy az intro az durván rángat. Viszont ahogy kocsiba pattannak és a játékos megkapja az irányítást, onnantól szép stabilan fut.
[ Szerkesztve ]
-
Teasüti
nagyúr
Persze, ilyen közeli kivágásoknál, vagy ha a plafont nézed, nyilván megy feljebb.
Oké. 250 fps a városban. Nincs frame cap in-game. Nem tudom a benchmark-ban miért éppen 66-ra áll be, de az mesterséges limit-nek tűnik nekem. Lehetne bármi más érték is, főleg ilyen változatos hardverek mellett: mindegyiken 66-ra áll be? Ez nem véletlen.
Sajnos a GTA4 teszt az így szerintem érvénytelen. Legalábbis csak a 0-66 közötti eredmények mérvadók.[ Szerkesztve ]
Új hozzászólás Aktív témák
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen