-
Fototrend
Mára a ProHardver!/IT.News Fórum is nagylétszámú Linuxban jártas taggal büszkélkedhet. Nehéz szinteket felállítani egy olyan rendszer ismeretében, ami annyira sokrétű, hogy teljesen szinte lehetetlen megismerni minden egyes részét. Azt azonban mindenki tudja, hogy kezdő-e vagy sem. Elsősorban nekik szólnak az alábbiak, de érdemes mindenkinek elolvasnia, mint útjelző táblát.
Új hozzászólás Aktív témák
-
-
-
-
-
válasz
BlackSoft
#31979
üzenetére
Talán ez már kicsit ontopik is lehet.
hot spare otthonra nem jó megoldás, egyrészt öregszik, másrészt az automatikus helyreállítás automatikus, felügyeletlen: 1. nem tudsz egy utolsó, mondjuk diff backupot csinálni, 2. nem tudod magad detektálni a valós hibaforrást, 3. ez mondjuk nem kifejezetten soho, de mi van egy terhelt rendszerre még resilveringet is terhelsz?!, 4. a hot spare is kap valamennyi működési időt, öregszik.
Ezzel szemben nyersz annyi időt, amíg veszel egy új HDDt (vagy fiókban öregítve ennyit se), leállítod, bedugod. Gondolom nem falaztad be a NAS-t. Egy adatcenter mélyén persze más a történet, ahová alig jut el ember.Egyébiránt a szoftveres raid tömböt (pun intended
) erősítem magam is. Ha nem ilyen utolsó utáni weboldalról összeollózótt szoftverről, hanem hosszú ideje mainline kernelben lévő kódról beszélünk, akkor engem ez megnyert egy zárt feketedobozzal szemben.Utóbbival vesztettünk már el adatot: egy helytelen "lemezcsere" folytán, az eredeti RAID tagját felülírta a vezérlő, így túl sok lemez esett ki, és puff. Pedig minden adat ott volt blokkszinten, menthető lenne az adat, ha nem ilyen "okos" a hardveres vezérlő. mdadm-mel pl ez simán kezelhető lenne, mai napig.
-
-
ufw csak egy wrapper az iptables-re (újabban inkább nftables). /etc/ufw/*.rules -ban kvázi iptables parancsok vannak.
Amit keresel, az a DNAT, pl: [link] leírja egymás után, hogy milyen iptables parancsok kellenének, és ezeket hogyan illesztheted ufw-be.
Utolsó gondolataidra: a hálózati/tűzfal szaktudás egy fél szakma. A felsorolt szavaknak nincs önmagában veszélyei, meg kell érteni a chain-t. Mindegyik másra jó, de önmagában nem veszélyes.
Egyébiránt: ha tűzfalra szeretnél használni egy OS-t, akkor érdemes tűzfal OS-ben gondolkozni. Van számtalan, ingyenes pl.: pfSense, ipfire, DD-WRT, sophos home, opnsense vagy fizetős pl.: RouterOS. Meg kismillió másik, fejből most hirtelen ennyi. Sokszor ezeknek a dokumentációja segít a megértésben.
-
válasz
gregory91
#31907
üzenetére
Regisztráció.
Nem használom, szóval nem tudom, de tippem szerint publikus, opensource licence az ami megkötés lehet, meg hogy férj bele a 2GB-ba.C tervként megemlíthetem a snap csomagot, és a snapcraft.io. Itt lehet zárt kód is, viszont fordítani is magadnak kell. Célszerűen github/gitlab segítségével, de lokálban is lehet.
-
válasz
fatpingvin
#31899
üzenetére
launchpad teljesen fedi a PPA minden részét, szerintem.
-
válasz
Netszemete
#31854
üzenetére
Áhá, értem. Akkor irány a man bash:
DEFINITIONS
The following definitions are used throughout the rest of this document.
blank A space or tab.
word A sequence of characters considered as a single unit by the shell. Also known as a token.
name A word consisting only of alphanumeric characters and underscores, and beginning with an alphabetic character or an underscore. Also referred to as an identifier.
metacharacter
A character that, when unquoted, separates words. One of the following:
| & ; ( ) < > space tab newline
control operator
A token that performs a control function. It is one of the following symbols:
|| & && ; ;; ;& ;;& ( ) | |& <newline> -
válasz
Netszemete
#31849
üzenetére
Erre amúgy miért kell dokumentáció? Syntax errort mikor szoktak részletesen dokumentálni?
Mint parancs szeparátor értelmetlen, ha nincs parancs előtte. Egyetlen ; vagy & a bashba írva is hibára fut, független a for-tól, done-tól, akármitől.
@bambano-re ráerősítve, a script, amiről szó van, lokálban értelmeztet minden parancsot. Ha pl leszakad az SSH útközben, akkor előbb eljő az idő...
Ha remoteban futtatná az ssh-ban a teljes parancsot, akkor így értelmezett lenne: ssh "parancs &"; mivel két külön kontextusban szerepelnek. -
-
válasz
Netszemete
#31776
üzenetére
Még van pár public DNS, cloudflare (1.1.1.1) felül is.
Nagyobbak:
* OpenDNS (208.67.222.222)
* Quad9 (9.9.9.9)
* Comodo (8.26.56.26)Ezenfelül is van számos, elég rákeresni a "public DNS" kifejezésre.
-
-
Így látatlanban nehéz mit mondani, hacsak nem valami bug az adott változatban, akkor nincs összefüggés a kulcs algoritmusa és a fejlécek között.
Hogy miért nem teszi bele, ez is lehet sokféle. Nem kizárt, hogy rossz ágon nézi, vagy van egy feltétel, ami mégse teljesül, ilyesmi. Érdemes lehet egy foo.bar headerst betenni debugnak. -
Itt azért némileg keveredik a HSTS és az SSL/TLS történet. HSTS egy header, amit hozzáadsz a HTTPS kiszolgálóhoz és kész. Header always set Strict-Transport-Security "max-age=X; includeSubDomains"
Amennyiben jelenleg nincs HTTPS, na az gondterhesebb. Azt gondolom, hogy a TLSv1.3 már amúgy is bukta, szóval nem kell ECC-re támaszkodni, ott az oldstable RSA.
Illetve van egy olyan SO téma, ami leírja, hogy redirect esetén nem dobja a headert ez a régi verzió. Érdemes leválasztani a HTTPS és a sima HTTPt virtualhost szinten. [link]
Amennyiben minden kötél szakad le kell választani a hálózatról, és egy friss reverseproxy mögé kötni.
-
Ha ezekkel nem boldogulsz, akkor valószínűleg még az alapokkal sem vagy tisztában.
Egyébként a leírás alapján ez csak a quotahoz kell, az pedig ritkán szokott kelleni otthoni környezetben. Ha nem oda készül, akkor nem tanácsolom a folytatást. Ha oda, akkor pedig kihagyandó.
-
válasz
bambano
#31600
üzenetére
Azt hiszem ez valóban egy hit kérdés, illetve talán az, hogy ki milyen RAM hibával találkozott eddig.
Amivel én találkoztam, az olyan volt, hogy nagyon rossz, szóval 1 menetből ez kiderült. Ami ezenfelül az én hitem, hogy a nehezebben kiszűrhető hiba kis eséllyel fog pont addig kiesni, amíg "megunom"... de mindezek ellenére egy estét szoktam futtatni, mert általában úgy is estére rakom össze a gépeket.
-
válasz
Speeedfire
#31253
üzenetére
Vedd fel külön, és időzítsd rá.
-
-
Ez részben van így. Nyilván van egy default, és tudja azt is, hogy mik a privát tartományok, és keres magának.
Ami itt a trükk, hogy ha docker "networkot" hozol létre, az többnyire egy bridge (ez a default linuxon). A másik meg az a trükk, hogy előfodul, hogy a default (docker0) bridge túl nagyot harap, és 172.17.0.0/12 lesz belőle, ami után már a 192.168-ból fog választani (szerinte) szabadot. Nyilvánvalóan, amire nincs "lába" a hosztnak, arról nem tudja, hogy foglalt.default-address-poolsez a konfiguráció segít állítani, hogy mit foglaljon, és mekkorákat...
A default a 192.168/16os címeken az általad is látott /20 -as "szeletek". -
válasz
regener
#31127
üzenetére
Úgy értem, hogy ezzel a 80-as pinggel, ami alaphangon 160ms latency már ilyen 3Mbps korlátoztad magad default beállításokkal (TCP window).
Ha ezt megfejeli időszakosan valami hálózati ingadozás, eldobált csomag, akármi, akkor reccs. Nem általános ping az érdekes, hanem az éppen akkori, amikor gond van. Lehet ma már nincs semmi, még nem írtad.
Adott esetben érdemes lehet más, erre a funkcióra szakosodott protokollt használni.
-
-
-
válasz
CPT.Pirk
#31077
üzenetére
Felhőben VPN szerver, arra csatlakozik mindenki, és kész a kapcsolat.
Mikrotiken pl. van arra lehetőség, hogy a mobilnet forgalmát megjelöld, így az ott megy vissza, ahonnan jött, de ehhez mondjuk fix IP GW kell, hogy be tudd állítani. Ez sima iptables mellett, érzésre nincs benne.
-
-
válasz
bambano
#31035
üzenetére
"játék nem lesz, fejlesztés meg hibátlan videó és tecső lejátszás a feladat két displayporton meg egy hdmi-n"
"rx 570 van, ennél kellene egy kicsit jobb"
Magam részéről úgy vélem, hogy az AMD driver most nagyon jó linux alatt, szóval a vonalon maradva nem sok jobb értékű kártya van, mint az rx 570.
Tecsőt nem igazán gyorsítja semmi, de ha az megoldott, akkor esetleg az 5500XT, amin van VP9 decoder is, és kevesebbet eszik default. És egy hangyányit jobban is teljesít. -
-
-
válasz
I02S3F
#30963
üzenetére
Egyrészt van az 10 év is, mivel ott az Ubuntu ESM az LTSekre (sőt, ingyen 3 gépre otthoni felhasználásra).
Másrészt, az új software is rétegigény akkor.
Lehet, hogy aki Desktopon(!) szeretné ugyanazt az OS-t látni, annak ugyanaz a szoftver is kellhet.
Szerver fronton meg pláne... nem kell mozgó célpontra fejleszteni... -
válasz
Dißnäëß
#30828
üzenetére
"A Seagate-eken 100 lehet ezek száma (legalábbis HDS szerint, de lehet rosszul értelmeztem az oszlopok leíróit), a Purple-ön 200."
Ez normalizált érték tresholdja, amit a gyártó algoritmusa alapján számol raw-ból... szóval többnyire értelmetlen összevetni, almát körtével. -
-
Röviden: nem írja ki, csak megjelöli szemétként, amit a GC egyszer csak törölni fog.
Hosszan: az fstrim megkérdezi a fájlrendszert, hogy melyik fájlrendszer szektor üres, majd a szektor - LBA táblából átadja az eszköznek azon LBA tereket, amik valójában már üresek/szemetek. Az eszköz az LBA - belső címzés alapján bejelöli azokat a pageeket, amik szemetet tartalmaznak. Legközelebb, mikor:
* vagy az egész block (több page) invalid lesz és jön rá egy GC törlés
* vagy újrafelhasználva írni akar a pagere, akkor ugye törölni kell a blockot, majd vagy ott, vagy máshol (dinamikus WearLeveling dönti el) kiírja, akkor már nem viszi magával az invalid paget, helyére új kerülhet
* vagy a statikus WearLeveling úgy dönt, hogy túl sokáig állt ott az adat és áthelyezi, akkor kivágja az SSD a fenébe ezeket a pageeket, nem viszi őket tovább. -
-
-
válasz
kovaax
#30301
üzenetére
Nem tértek, és jobb is így. Az említett docker is igen parádésan viselkedik mondjuk egy CentOS8 firewalld+nftables környezetben....
A lényeg amúgy is az, hogy ezeket már többnyire backendnek tekintik, ez elé teszik az ufw/firewalld/egyéb szolgáltatásokat.
Ezért szomorú, hogy az erre buzdító hozzászólásomat gyakorlatilag mindenki ignorálta. A probléma, és néhány megoldása: [link]
-
-
-
-
válasz
Krystal_s
#30202
üzenetére
Az ugrálás egyébként működésben zavaró? Maga a tény, hogy energiatakarékossági okokból vált, okoz galibát akkor, amikor full kraft kell? Vagy csak kozmetikai hiba.
Adott esetben forceolhatod a másik oldalról is a dolgot, ha az AP-n only-n módra kapcsolsz.A 270 vs 300 témában pedig annyi van, hogy az egyik short GI-n a max, a másik a nem-short-GIn (long?).

-
válasz
growler
#29809
üzenetére
Ez majdnem jogos, viszont vannak erre programok, amik elsősorban fájl header alapján raw adatokból is próbál visszanyerni információt. De nem folytatólagos, vagy újramappelt adatokat, vagy ismeretlen binárisokat nem hoz vissza. Illetve könyvtár struktúra és fájlnevek se lesznek.
Röviden, fájlrendszer nélküli, raw adathalmazt nagy szívás helyrehozni. A dd pedig esélyesen legyalulta az ext4 ide vonatkozó részeit.
-
-
válasz
PumpkinSeed
#24009
üzenetére
Én is sokáig ezt hittem, amíg meg nem csináltam az elsőt.

Vagy amikor kézzel át kellett hegesztenem egy deb függőséget... eleinte nehéznek tűnik, de nem hiszem, hogy van olyan feladat ezzel kapcsolatosan, amire még ne gondolt volna senki.
-
válasz
PumpkinSeed
#24002
üzenetére
A gitet és a buildet összekötve lehetőség van commitonként buildelni.
Ha megvan a bináris, kell rá egy targéza (vagy txz), meg a git commit msg alapján létre kell hozni egy már előre létrehozott séma alapján az rpm speckót az aktuális changeloggal (= commit msg), plusz verzió/buildszám növeléssel. Az rpmbuild ezután már simaliba. A jó hír, hogy szerintem ezt a Jenkins tudhatja.
A másik oldalra viszont nem tudom hogyan lehet ráerőltetni pushhal az updatet, csak pull módszereket ismerek. -
válasz
gt7100
#23976
üzenetére
Nekem is van egy J1800 és J1900 "szerverem" is. A cryptsetup benchmark ad egy becslést, hogy milyen sebességgel bírják a titkosítást. Ilyen mértékben nálam nem okoznak gondot. A különbség szerintem nem az ssh-ban keresendő hanem a transfer schemaban. Az scp lineárisan tunkolja át az adatot, az rsync sokkal komolyabb deltákban és diffekben gondolkozik. Nem tartom kizártnak, hogy összességében jobban optimalizált az ssh kapcsolati sajátosságokra. Egyébként helyi hálón gondolom nem feltétlen akarsz mindig titkosítani, én úgy tudom, hogy rsync daemon titkosítás nélkül fut.
-
Lehet őket keverni, semmi baja nem lesz. Csak nehézkesebb a köteteket kezelni.

De gondolom azért van így, mert az OS diszkeken több partíciót is létre akart hozni (vagy ennek könnyebb esélyét megadni), míg az adatlemezt egyben akarta tartani, így felesleges volt rá egy újabb réteget húzni, ha úgy is csak egyetlen partíció lesz. -
-
-
-
válasz
_Dumber_
#23793
üzenetére
Alapból ott van elszúrva az egész, hogy a class neve és a fájl neve egyezni illik.

Egyébként beírtam ugyanezt a kódot, és compile után ment is. De!
[build_settings]
# %f will be replaced by the complete filename
# %e will be replaced by the filename without extension
# (use only one of it at one time)
compiler=javac "%f"
run_cmd=java "%e"
Itt is látható, hogy amíg te alul a java class nevével operálsz, addig ő a fájlnévvel. -
-
-
Kicsivel a kövi LTS után.
@ubyegon2: Én a haladó topikot úgy értelmezem, hogy az alap, kiinduló pontokat leírva, értelmezéssel együtt megkapja, akkor ő már meg tudja oldani, mert haladó. És nem kell azzal vesződnöm, hogy step-by-step magyarítok egy leírást, kiegészítve olyan elemekkel, hogy hol van a terminál. Ezenfelül vannak a személyes tapasztalatokból gyűjtött információk (legyen az figyelmeztetés, vagy rövidebb út, stb.), melyből a témában nekem nincs.
Bevallom, sosem fogott meg a téma, bízom benne, hogy az alaplapom megoldja a feladatot. Bár szegény CPU hűtő nagyon gyorsan pörög szerintem, de így sincs hangja. -
-
válasz
bambano
#23498
üzenetére
Ohh, akkor ennek alászaladtam. Mondjuk másodszor, jobban átgondolva jó nagy overhead lenne a network és a központi elosztó szerver miatt...
Azt viszont nem mondanám, hogy nem érik el egymás memóriáit, mivel ezeket a VMeket szükség esetén realtime és runtime dobálja, észrevehetetlenül. -
válasz
bambano
#23492
üzenetére
Amit linkelt, ott látható, hogy a 24 magos rendszeren elég jó eredménnyel zárt, azaz kizárt, hogy soros programról lenne szó.
Nem 32 cloud gépre teszem fel, hanem 32 gépen átívelő virtual gépre. Az erőforráskezelést a hostgépeket vezérlő oldja meg. Ha a Kuglitól rendelek egy 32 virtuális magos gépet, akkor egyetlen egy gépem lesz, 32 szállal. Ha ezen futtatom az egyébként párhuzamosított programot, akkor az biza mind a 32 szálon futni fog, még ha alatta valójában 32 különböző gép is van, vagy ha csak 2, teljesen mindegy. -
válasz
bambano
#23490
üzenetére
"a cloud erre természetesen nem jó, csak akkor, ha a szoftver képes cloudon működni. olyan nincs, hogy sok gépet cloudba kapcsolsz és egy program az összes proci lóerőt kihasználja, ha nincs rá felkészítve." Ezt kifejtenéd? Akkor a sok cloud cumpute hogyan működik? Nem gondolnám, hogy egy virtuális gépen én már le tudnám kezelni a cloud akármilyét.
-
válasz
bucihost
#23485
üzenetére
Engem azért érdekel, hogy ez ilyen hobbi, néhányan összeülnek típusú elgondolás, vagy ezzel komolyan akarsz kezdeni valamit.
Valószínű, hogy nem írsz új sakkmotort, tehát amit az és a futtatókörnyezete tud, azt tudja, és kész. Innentől kezdve csak azzal tudsz dolgozni, hogy egy cloudban menedzselt gépparkkal virtualizálsz egy gépet, amin ez a szoftver futni fog, így megkapja közel az összes erőforrást az összes géptől. Az erőforrások szétosztása a host OS feladata, tehát azzal a programnak nem kell foglalkozni.
Otthoni hobbi célra az Ubuntu+OpenStack páros lehet nyerő, 10 gépig ingyenes. Már egyszer linkeltem, de újra [link]
Ha komolyan érdekel, de nem akarsz/tudsz vele foglalkozni, akkor ezt megcsinálja neked a Google/Amazon/Azure is, hogy csak a nagyokat mondjam... gépidőt megveszed, és akkora gépet kapsz, amekkorát akarsz. -
válasz
bucihost
#23478
üzenetére
"Cluster" van linux alatt, de ennek ugye több szintje is van. Megírhatod a programot úgy, hogy kommunikáljon egymással, megírhatod olyan nyelven, aminek a futtató környezete képes szétosztani a feladatot, illetve használhatod a mostanság menő kláudot, amikor az OS-t a háttérben "összekötik", és neked egy virtuális gépen egy szuperszámítógéped van. Az utolsóra egy példa: [link]
-
Sajnos ebben nem tudok most segíteni, nem ülök előtte és nincs manpage (nincs CLI/dokumentáció, ami könnyítene). Ha nem találod meg a beállításaiban, vagy nincs ilyen lehetőség a ~/.remmina alatt, akkor passz.
Alternatíva: [link]
vagy xfreerdp -d [domain] -u [user name] -p [password] -f [ip]Auto indítás LXDE alatt: lxsession-edit
Vagy kézzel .desktop fájl a /home/username/.config/autostart alá.Remélem segítettem.
-
Ahogy korábban javasolták, legegyszerűbben a minimal telepítővel jársz. [link]
Ennek a lényege, hogy minden lényeges csomagot a netről, a legfrissebb verzióval tölt le. A telepítője nem pilótavizsgás, ncurse alapú, végigvezet minden lényeges ponton...a végefele lehetőség van a főbb DM telepítésére, ekkor kell jól választani: [link] Ez a Tasksel, innen kell neked szerintem a Lubuntu minimal. Aztán, ha elindul, akkor jöhet az RDP kliens. -
válasz
croixleur
#23397
üzenetére
Igen, akárhány kulcsot bele lehet tenni. Entert nyomsz közé.
rsync lazán fog menni SSH-n keresztül, ezzel nem lesz gond.
Debianban nem hiszem, hogy lenne nem szükséges daemon vagy port. Portokat iptablesben, vagy kezdőként ufw-ben lehet kezelni. fail2ban ajánlott a további törések hátráltatásában. Valamint a default 22-es portról egy másikra áthelyezni az SSH-t. -
Valaki találkozott gnome-panel (3.16) memory leakkel?
Ha nyitok egy ablakot felszalad rá 2MB, és soha nem engedi el.
-
válasz
Atlantisz48
#23380
üzenetére
Van ilyen célú speciális linux: KALI
-
-
-
-
-
-
válasz
Nestor16
#22638
üzenetére
Megint először letörlöd a drivert, majd újrarakod. Felesleges.
sudo apt-get install fglrxA Szoftverközpont meg már csak ilyen. Általában a kis progiknál működik, de komolyabb használatra valahogy sosem sikerül. Egy ideje mintha már nem is fejlesztenék.

És bocsánat a modortalanságomért. Üdv köztünk.
A többi kezdő topikot is szoktam pl én is olvasni, de az Ubuntu-sat is.@bambano: Évek óta még csak plusz multiarch lib sem kell hozzá.
-
-
Valakinek van tapasztalata az ext4 belső titkosításával (kernel 4.1+)?
Érdekelne, hogyan lehetne megoldani okosan egy home PC-n, hogy a login auth feloldja a saját homeját mindenkinek. Az arch wiki meglehetősen szűkszavú, és session keyringben gondolkozik, nekem user szinten kéne... -
-
-
-
-
-
-
-
-
-
-
-
válasz
subset
#22149
üzenetére
A vezérlő halála mondjuk tényleg az a bizonyos roller. Amúgy egy rendes vezérlő tud dobni a performancián (na nem az ilyen összekukázott, hanem a 100k+, RAID5-6 stb esetén.)
Ha van rendes áramellátás, és van bőven kraft a Xeon szerverben, akkor valóban kevés ok van a külön vezérlőhöz. -
-
-
-
-
-
-
-
válasz
PumpkinSeed
#21786
üzenetére
Ne használj NTFSt, de főleg ne torrentezésre linux alatt. Sajnos az így terhel. Ott a jó öreg ext4, minden probléma megoldója ez ügyben.
-
Új hozzászólás Aktív témák
- Facebook és Messenger
- Robotporszívók
- Házimozi belépő szinten
- Azonnali notebookos kérdések órája
- One otthoni szolgáltatások (TV, internet, telefon)
- Arc Raiders
- Samsung kuponkunyeráló
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- PlayStation 5
- Teljesen M5 SoC-családra vált az Apple Macbook Air és Pro
- További aktív témák...
- Kaspersky, BitDefender, Avast és egyéb vírusírtó licencek a legolcsóbban, egyenesen a gyártóktól!
- The Elder Scrolls Online Imperial Collector s Edition
- MEGA AKCIÓ! - Jogtiszta Windows - Office & Autodesk & CorelDRAW - Azonnal - Számlával - Garanciával
- PC Game Pass előfizetés
- Adobe Előfizetések - Adobe Creative Cloud All Apps - 12 Hónap - 15% AKCIÓ
- BESZÁMÍTÁS! ASRock B550 R5 5600 16GB DDR4 512GB SSD RTX 4060 8GB Zalman S2 TG be quiet! 500W
- Új és használt laptopok , üzletitől a gamerig , kedvező áron. Garanciával !
- Keresünk Galaxy S22/S22+/S22 Ultra
- BESZÁMÍTÁS! Apple MacBook Pro 16 M1 Max 64GB RAM 8TB SSD notebook garanciával hibátlan működéssel
- ÁRGARANCIA!Épített KomPhone i5 14400F 32/64GB DDR5 RTX 5060 Ti 8GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
) erősítem magam is. Ha nem ilyen utolsó utáni weboldalról összeollózótt szoftverről, hanem hosszú ideje mainline kernelben lévő kódról beszélünk, akkor engem ez megnyert egy zárt feketedobozzal szemben.




Új lapon, ami RST-s, lehet "Legacy" módban futtatni?
