Keresés

Új hozzászólás Aktív témák

  • kavalkád

    aktív tag

    válasz ddekany #43 üzenetére

    > nem értette a környezetet

    ha 5 forintost dobálnánk fel 10-ből 8-szor pont ilyen sofőrre esne :D

  • #54625216

    törölt tag

    válasz ddekany #43 üzenetére

    "Nem látszik a fény az alagút végén egyenlőre."

    Ha most elvégeznénk egy Turing tesztet egy átlag emberi sofőrrel és a jelenlegi FSD bétákkal, tehát csak a vezetési stílusból és a döntéseiből kellene megállapítanod, hogy élő ember, vagy AI vezeti-e az autót, akkor gyorsuló tempóban csökkenne a különbség a kettő között.
    Ráadásul az AI hibájából az összes autó tanul, az ember hibájából meg az se nagyon, aki elkövette.
    Tehát a nem túl távoli jövőben onnan fogod tudni, hogy automata vezeti-e az autó, hogy biztonságosabban közlekedik.
    Az FSD-knél már most sem a döntéshozatal a valódi kihívás, hanem az érzékelés, azaz hogy a bejövő szenzor adatokból képes-e a valóságot minél pontosabban leképező "vektor teret" létrehozni, amely alapján a döntést meg tudja hozni. Ennek a fejlesztésébe pedig gigantikus erőforrásokat tolnak, nem csak a Tesla, hanem minden komolyan vehető iparági szereplő.

    Valójában a level 5 sokkal közelebb van, mint hinnénk. Az más kérdés, hogy hány év(tized)nek kell eltelnie, mire az FSD-ket a hatóságok is engedik önállóan vezetni, azaz a jogi felelősség áthárul az emberről az FSD fejlesztőjére.
    Szvsz ez is sokkal hamarabb fog eljönni, mint ma várnánk, mert ha az FSD-k baleseti statisztikái javulnak (amik már most sem rosszak amúgy), akkor egy ponton túl már nem az lesz a dilemma, hogy engedjék-e az FSD-ket vezetni, hanem hogy megtiltsák-e az embereknek.

  • #54625216

    törölt tag

    válasz ddekany #70 üzenetére

    "Hanem egy általánosabb intelligencia ami érti a világot maga körül. "

    Pontosan ezen dolgoznak. [link]
    A lényeg, hogy nem az okoz gondot a fejlesztésben, hogy adott szituációkban hogyan döntsön az AI, hanem magának a környezetnek az érzékelése és a szituációk felismerése. Ez az, amiben hatalmasat fejlődtek az FSD-k (nem csak a Tesla) az utóbbi pár évben.

    Amit én alapvetően lobbisták által gerjesztett hangulatkeltésnek érzek, az a kettős mérce, ahogy a média kezeli az egész FSD témát.
    Ha Rózsi néni eltéveszti a jobbkezes utcát és belerongyol egy büntetőfékező BMW-sbe, az a TV2 halálhíradójában is csak akkor hírértékű, ha a BMW-st Berkinek hívják, de ha az egészet az amúgy kikapcsolt önvezető funkcióra fogja, akkor átveszi az egész világsajtó clickbaitnek.

  • #54625216

    törölt tag

    válasz ddekany #100 üzenetére

    Az a fő kérdés, hogy ha az AI esetenként olyat hibázik, amit az ember soha, az arányban van-e azzal, amit meg az emberek hibáznak és az AI kerülné el 100% biztonsággal.
    Az AI ugyanis csoportosan tanítható szemben az emberrel, ami meg egyedileg képes ugyan tanulni, de csoportosan idióta.
    Tehát míg az AI általi hibák a fejlesztés logikájából adódóan fokozatosan ritkulnak, addig az emberi hibák számát csak a szabályozás drasztikus változtatásával lehet befolyásolni (valamennyire).

    Értsd: lehet, hogy mondjuk az AI minden 200 esetből egyszer nem ismeri fel, hogy a zebrán egy néni toporog és ezért elüti, míg egy ember rögtön megállna.
    De ha az eset alapján továbbfejlesztik az AI-t, akkor ez az arány akár egy teljes nagyságrendet is javulhat, míg ha mondjuk az ember által elkövetett zebrán gázolások arányát akarnák javítani, akkor ahhoz büntetőtételeket kell módosítani, bekamerázni a zebrákat, vagy drasztikus esetben bevonni a zebrán áthajtók jogsiját, különben az emberi vezetők viselkedése statisztikai értelemben nem javulna.

    Továbbá az AI csoportosan olyan dolgokra is megtanítható, amire az ember (csoportosan) alig. Az autók folyamatosan küldhetik trainingre a valós adatokat, amiből aztán a teljes rendszer tanul. Mondjuk ha egy útszakaszon átszalad a kocsi előtt egy szarvascsorda, akkor ez az adat bekerülhet a térkép adatbázisba. Ha aztán a szarvasok vándorlása statisztikailag szignifikánssá válik, akkor az összes arra járó autó fel lenne készülve, hogy azon az útszakaszon nagyobb a vészfékezés lehetősége, ezért figyelmeztető tábla nélkül is visszavenne a sebességből. Ha kisodródik a kanyarban, azzal a többi autó is fel lenne készülve a veszélyes kanyarra és így tovább.
    Ehhez képest hány halálos balesetnek kell történnie egy adott útszakaszon, hogy végre felfessenek egy záróvonalat ugye és az se garancia arra, hogy azt bárki komolyan is veszi.

    Az sem mellékes, hogy a balesetek igen jelentős száma abból adódik, hogy a közlekedésben résztvevők hogyan viselkednek egymással. Ahogy nő tehát az önvezető autók száma, úgy válik egyre kiszámíthatóbbá a közlekedés, mert az autók össze tudják szinkronizálni egymással a döntéseiket már az útvonal választás optimalizálásától kezdve.

    Ami a felborult tűzoltóautót illeti, az pont nem jó példa, mert az simán lekövethető fizikával: mozog, vagy nem mozog. Hogy miért nem mozog, az a vezetés szempontjából lényegtelen, akkor is ki kell kerülni, ha csak szimplán leparkolt és akkor is, ha feldőlt.

    Az AI meg eleve nem úgy működik, hogy kiolvassa a szenzor adatokat, feldolgozza, majd azok alapján eldönti, hogy mi a legjobb megoldás, hanem előre végigszámolja a szenzor adatok lehetséges verzióit és a szenzorok kiolvasásakor azt a scenáriót veszi elő, ami a legjobban illeszkedik a mért adatokhoz.
    Azaz lehet, hogy az AI nem tud különbséget tenni egy felborult és egy parkoló tűzoltóautó között, így számol azzal a lehetőséggel is, hogy az mégis elindul, de ez a döntéshozatal pillanatában csak egy lesz a be nem következett, ezért ignorált scenáriókból.

    [ Szerkesztve ]

  • aginor

    addikt

    válasz ddekany #152 üzenetére

    De akkor abban egyetértünk, hogy ezek a rendszerek még nem forgalomérettek? Nem szabadna őket a mezei hülyék kezébe adni?

    kpbendeguz: azért azt ugye te is érzed, hogy a példád nem teljesen helytálló (bár kérdés, hogy pontosan mire hoztad fel szerinted). A ló önvezetése nem üzemszerű, emiatt egyértelmű a jogi terminusa, míg egy önvezető autó önvezetése az, emiatt jogilag vitatott lehet a felelősség, ha hibázik.

    [ Szerkesztve ]

    Azért vagyunk a világon,hogy valahol vegyünk egy ATI Radeon-t :))) by: LADA VFTS http://www.flickr.com/photos/40852488@N03/

  • aginor

    addikt

    válasz ddekany #161 üzenetére

    Amíg kontroll alatt van, és nem kerül arra alkalmatlanok kezébe egy félkész rendszer, addig nincs vele bajom, mert a tesztpilóta remélhetőleg magasan képzett szakember, aki tudja, hogy mit csinál.
    Az autópályás példa érdekes, abban mondjuk még hajlandó is vagyok hinni, mert ott többnyire jól kontrollálható szituációkkal találkozik a gép, kevesebb az előre ki nem számítható változó (ás amúgy is olyan sebességeknél már a reakcióidő, és a kiszámított reakció nagyon felértékelődik, lehet többet ér, mint az ember kognitív képességei).

    Azért vagyunk a világon,hogy valahol vegyünk egy ATI Radeon-t :))) by: LADA VFTS http://www.flickr.com/photos/40852488@N03/

Új hozzászólás Aktív témák