• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    LAUNCHERElektromobily 🏞️ 🛣️ 🏎️ 🚗 🚐 🚙 🚌 🚒 🚛 🔌
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Ano, a proto má Tesla těch senzorů fakt hodně, takže výpadek 1 či 2 neznamená vznik slepého místa.

    Ne, Autopilot je stejně bezpečný jako Autopilot+řidič. Ten řidič je tam navíc, pro případ že by třeba Autopilot nerozpoznal dočasné přeznačení pruhů a začal brzdit - to je to 0,001% situací v reálném provozu, kdy Autopilot neví.

    A ani pak nepotřebuje "řídit podle parkovací kamery" (Tvůj strawman), ale stačí mu ukázat, které "Object_Cone" ohraničují jeho jízdní pruh a on už to zvládne sám...

    V případě třeba dítěte ve vozovce to ale bude Autopilot, který o několik vteřin před řidičem vyhodnotí riziko a upraví rychlost/směr jízdy.
    LA_PIOVRA
    LA_PIOVRA --- ---
    BOBASH: zminka o Parizi: minuly tyden jsem ridil prave v Parizi, v odpoledni spicce, za tmy a deste. Naprosta anarchie, pravo silnejsiho a odvaznejsiho. Pri dodrzovani predpisu imho naprosty no-go.
    Jak by se s tim popasovalo autonomni rizeni, ze dopravni predpisy v tu chvili nic neznamenaj?
    LOPIK
    LOPIK --- ---
    Az Tesla nebo jinej vyrobce prevezme plnou odpovednost za nehody jejich vyrobku (coz obnasi u nas i zmenu legislativy) nebo nejak presvedci pojistovny, ze to nepujde za "ridicem", tak pak se jde bavit o autonomnich vozidlech v silnicnim provozu. Coz mimochodem znamena i to, ze az pak zkrachuje vyrobce, tak muzes vozitko odstavit. Technicky veci jsou jen cast celyho problemu.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Piloti samozřejmě věděli, že tam MCAS je. Je povinný. Nevěděli však, že tuhle novou verzi nejde dlouhodobě vypnout při manuálním řešení - že se vždy vyresetuje

    Stejně tak systém nemohl tušit, který ze 2 senzorů (místo nejméně 4) je vadný a tak zvolil předpoklad, že ta horší možnost je správně a snažil se letadlo zachránit - pilotům navzdory.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Co bylo na Maxu špatně jsem popsal níže. A problém nebyl v selhání čidel, selhání čidel je normální věc, se kterou si systém musí umět poradit.

    Stejně tak si auto, který má být schopno toho, co Musk slibuje (robotickej taxík – tedy schopnost operovat bez posádky na palubě) musí umět poradit se selháním jakéhokoliv senzoru, kterým je vybaveno, stejně jako s jakoukoliv situací způsobenou počasím, provozem, čímkoliv.

    Je hezký, že Tesla je díky Autopilotu bezpečnější než normální auto, ale to není o tom, že je Autopilot bezpečnější než řidič.

    To je o tom, že Autopilot + řidič je bezpečnější než jen řidič.

    Pokud se bavíme o FSD, bavíme se o tom, že tam není řidič. A Autopilot sám o sobě rozhodně bezpečnější než řidič není, protože samostatný funkce ani není schopen.
    BOBASH
    BOBASH --- ---
    OMNIHASH: Počkej počkej, jaký pravidlo, že když AI neví, tak vehementně upozorňuje posádku?

    JAKOU POSÁDKU?

    Bavíme se o tom, že Musk tvrdí, že FSD umožní provozovat Teslu jako robotickej taxík. V robotickým taxíku není posádka, je tam jen pasažér (od kterýho nemůžeš očekávat řízení auta, protože je pasažér, ne řidič) a to ještě jen někdy.

    TAK JAKOU POSÁDKU MÁ UPOZORŇOVAT?

    To, že je AI bezpečnější než lidi, je zajímavý pro systémy Level 1 - Level 4, což jsou všechno pořád "asistenti řidiče" – řidič tam pořád musí bejt, pořád musí bejt schopen řídit (má řidičák, není ožralej..) a díky AI bude jezdit bezpečněji.

    Ale FSD slibuje schopnost auta jezdit samostatně, a na to je potřeba plnohodnotná Level 5.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Pořád meleš nesmysly... OMNIHASH to posal velmi přesně a velmi realisticky a ty se zmůžeš sotva na pár HOAXů (bílej náklaďák), blekotání nesmyslů o tom, že AI nerozpozná lidi a zajede je a totálního nesmyslu o 737 MAX.

    737 MAX nebylo na zemi kvůli vadě "asistenčního systému", ale kvůli vadě senzorů, na které se (nikoliv asistenční, ale bezpečnostní) systém spoléhal. Ten systém má zabránit tomu, aby to s tím letadlem pilot (ne)úmyslně někam napálil nebo se dostal do pádového stoupání.

    Kvůli šetření bylo na některých letadlech méně čidel a po jejich poruše dostal systém chybná data, z kterých opakovaně vyhodnocoval ohrožení letadla a s každým vyhodnocením opakovaně zapínal nouzového autopilota, což piloti nestíhali vypínat.
    BOBASH
    BOBASH --- ---
    OMNIHASH: Těch 25 tisíc jsi vzal kde? Boeingy spadly dva...

    Problém u 737 MAX nebyl přímo s autopilotem, ale s MCAS, což je něco jako ESP u auta ("sahá" do řízení v případě, že se letadlo dostane do situace, ve který by být nemělo, v tomto případě vysokej úhel náběhu). Problém byl v tom, že v případě selhání jednoho senzoru úhlu náběhu (AoA) neuměl MCAS porovnat údaje z obou dvou, neuměl ani pracovat podle toho druhýho a dokonce ani pilotům neřekl, že tam je nesouhlas.
    Druhej problém byl, že piloti nevěděli, že tam ten MCAS je.

    Nemohli tedy vyřešit problém tak, jak by vyřešit šel, tedy vypnout MCAS a letět sami.

    Teoreticky by k vyřešení problému, který by sice nebylo 100%, ale eliminovalo by velkou část rizika, stačilo dodělat do všech Maxů ukazatel nesouladu AoA senzorů a upozornit piloty, co mají dělat.
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: njn, špatnej trh. Boeingů bylo 400, kdyby autopilot způsobil 25.000 havárií za rok, taky ho stáhnou z nabídky.
    Jinak, že se dočkám tvrzení, že problém s autopilotem letadla, kterej má tendenci to napálit kolmo do země, se dá vyřešit bulletinem, zrovna od tebe, jsem fakt nečekal. Člověk by si pocitově řekl, že je menší problém ne/zastavit před kočkou, než rozmáznout tři sta lidí na prvosoučástky.
    Implementaci pravidla, když AI neví, vehementně upozorňuje posádku a okamžitě bezpečně staví, beru jako krok č.1 a vypadá to, že se s Teslou shodujeme.
    S tou plnou autonomií máš pravdu, nicméně pomíjíš, že není úplně potřeba. Stačí, aby bylo AI o řád bezpečnější, než lidi, a prakticky toho dosáhla.
    BOBASH
    BOBASH --- ---
    DAN_F: Waymo je taky testovací provoz, moc nevěřím tomu, že by tohle prošlo trvale.

    A pořád to neřeší to, že nejdřív musí to auto bezpečně zastavit na místě, kde nikoho neohrozí/neomezí.
    DAN_F
    DAN_F --- ---
    BOBASH: Waymo v situacích, kdy neví, ovládá na dálku "týpek ze support centra" :)
    BOBASH
    BOBASH --- ---
    OMNIHASH: Nejsou 100%, ale jejich cílem je být 100% a když se objeví něco, co se posralo, tak se to řeší.

    Viz systémy v letadlech. Spadnou ti dvě letadla, protože blbě zafungoval "asistenční systém" a i když většina fleetu 737 MAX měla ten problém redukovanej tím, že měla příplatkový indikátory AoA senzorů, a ten problém by se s velkou měrou pravděpodobnosti dal vyřešit bulletinem s informací, co dělat, když to začne blbnout, tak se celej fleet uzemnil na víc než rok.

    Tolik k zájmovým skupinám a finančním benefitům. Až pár roboaut někoho zabije, bude to vypadat stejně jako se 737 MAX, nebo možná ještě hůř, protože lidi se víc bojej věci, kterou viděj jezdit kolem sebe, než spadlýho letadla v Africe. A velká část veřejnosti bude k autonomním autům EXTRÉMNĚ nepřátelská.

    Ad 4) Udělá a neudělá.

    AI umí rychleji zpracovávat informace, ale neumí přemýšlet. Ne že přemýšlí hůř, prostě nepřemýšlí. Takže jakmile se setká s něčím, co nebude mít naučený, tak jí veškerej výpočetní výkon je úplně k hovnu, protože nebude vědět.

    Proto je na vývoji autonomních aut naprosto nejtěžší krok z level 4 k level 5 – tedy od "po většinu času jezdí auto samo, ale občas potřebuje intervenci člověka" k "furt jezdí samo".

    A protože nikdo nikdy neschválí možnost, že by auto ovládal na dálku týpek ze support centra, tak dokud si nebude AI schopná poradit se vším, nebudou žádný autonomní auta.

    Level 4 je totiž pořád asistenční systém a žádná autonomie.

    Musk mluví o FSD, ale zároveň naznačuje, že tím vlastně myslí něco, co bude Level 3 nebo 4, čili Musk lže.
    OMNIHASH
    OMNIHASH --- ---
    BOBASH:1.) i redundatní failsafe systémy nejsou 100%.
    2.)99% čeho? Standardně se měří nehodovost počtem nehod na ujetou vzdálenost, a tam vede AI nad lidma už od vzniku týhle diskuze.
    3.)Projde to legislativně hnedka ve chvíli, kdy to začne tlačit dostatečně velkej počet zájmovejch skupin, a to bude tak pět minut po tom, co si spočítaj, že je to pro ně monetárně výhodný. Na dálku řídíme osmitunový nadzvukový drony s naváděnejma střelama, ale před autama se zastavíme, že by to mohlo bejt nebezpečný,tak určitě. Samozřejmě, pokud ind vyhodnotí, že je to nad jeho možnosti na dálku, vyšle nějakou místní tow crew.
    4.)udělá z principu věci daleko víc, než řidič v obdobný situaci, rmá nesrovnatelně rychlejší reakční čas a možnost kromě přemýšlení, co je to za UFO ještě v tý samý době řešit optimální brzdnou strategii s ohledem na minimalizaci pravděpodobnosti kolize.
    5.)ale povolí, stačí jeden stát, kterej to úspěšně spustí a do pár měsíců se přidá zbytek. V tom je taková potenciální úspora, že si to nenechá ujít žádnej podnik.
    BOBASH
    BOBASH --- ---
    DZODZO: Nepodstatný.

    Člověk se umí chovat jako kretén, AI ne, to víme všichni. Ale člověku se nestane, že bude čumět na bílej náklaďák a nebude vědět, co to je, nebo že zastaví (v lepším případě) uprostřed křižovatky a zavolá někomu, aby ho šel zachránit (teda jo, jednou mi jedna kámoška říkala, že se jí tohle jednou stalo).

    Co ale člověk umí a "AI" (protože to není skutečná, tedy general AI) neumí, je poradit si s nečekanou situací. Ty sice nenastávají denně, takže se ajťákovi srovnávajícímu to se statistikou spolehlivosti serverů může zdát, že to není problém, ale on to je problém. Když ti shoří disk v serveru tak (pokud nejsi dodavatel českýho státu co nezálohuje) prostě vyměníš disk, záloha to vyřeší, hotovo. Jeden disk ze sta, pohoda.

    Jenomže když ti jeden taxík z tisíce jednou za rok ježdění přejede jen jedno malý dítě, tak to můžeš celý zabalit.
    BOBASH
    BOBASH --- ---
    DZODZO: Jenomže vy pořád nechápete, že pokud to má reálně fungovat tak, jak FSD má (tedy schopnost provozovat auto bez řidiče, možnost si ho přivolat, možnost dělat robotaxi), tak to, že to umí ohromit člověka za optimálních podmínek, je naprostej zlomek toho, co je na tom těžký.

    To těžký je, že to musí fungovat VŽDYCKY. Není možný říct "jé, sorry, že jsme vám zabili dítě/babičku/psa" nebo že jsme nabourali a nedovezli vás do cíle, protože na tyhle podmínky ještě nemáme data.

    To, že ty auta umí jezdit v dobře zmapovaným městě v Arizoně, nic neznamená. Použitelný to bude, až to bez problémů bude fungovat v pařížský špičce za mlhy a sněhový vánice.
    DZODZO
    DZODZO --- ---
    BOBASH: tu otazku v bode 2 by som upravil na Jak casto se stane lidskymu ridici, ze opakovane nevi/neumi reagovat, pretoze niektori kreteni na cestach vedia opakovane nedat znamenie o zmene smeru jazdy, pripadne vedia opakovane nepustit chodca cez prechod, u mrakodrapu jeden kreten s nejakym kupeckovym merglom opakovanie parkuje na mieste pre postihnutych, atd... to by sa AIcku nestalo, raz ho tuto situaciu naucis a pak pojde podla toho
    BOBASH
    BOBASH --- ---
    OMNIHASH:
    1) Žádná IT věc nefunguje na 100%, proto budou muset být redundantní a mít failsafe systémy, nebo to nikdy nebude fungovat (nebude legální).

    2) Bavíme se o fail rate u řízení. Lidskej řidič má rozhodně velmi vysoko nad 99%. Jak často se stane lidskýmu řidiči, že neví/neumí reagovat?

    3) Nebudou. Nic takovýho legislativně neprojde, nikdo ti neschválí jako legální to, aby Ind na tisíce kilometrů (a mimo jiný s už patrným zpožděním v komunikaci) řídil dvoutunovou věc na základě údajů z kamer a radaru.

    4) Zastavení ze 100 km/h na PRÁZDNÝ rovný silnici je jednoduchej úkol. Ale my se bavíme o situaci, kdy to auto z nějakýho důvodu "přestalo vědět".

    Typicky třeba "uvidělo" něco, co neví, co je. Jede 90 km/h po státovce a před ním se objevila věc, která může bejt zajíc, malý dítě nebo kus krabice hnanej větrem. Vzadu auta, vlevo auta, vpravo neví, jestli je něco keř nebo barák. Co udělá? Má necelou vteřinu, než s tím někam praští.

    5) Protože to nikdo nepovolí. Podívej se, jak fungujou autopiloty v letadlech, který pracujou s reálně mnohem jednodušším prostředím. Tohle bude mít přibližně stejný bezpečnostní požadavky, protože taky v případě selhání umřou lidi.

    Takže je to přesně naopak. Ne "kluci z autobible si myslí", ale "ajťáci si myslí". Ajťáci si myslí, že když jim všechno může fungovat na 99% a stačí to, tak takhle můžou fungovat i auta. Jenomže nemůžou.
    DZODZO
    DZODZO --- ---
    meanwhile ludia ukazali sandymu FSD a bol z toho odvareny, waymo vykrika iba preto ze neviii

    https://twitter.com/teslaownersSV/status/1353903152697761794

    stale podcenujete to, ze tie auta su tam vonku na silnici a kazdou najazdenou sekundou zbieraju data o svojom prostredi, takze sa ucia rychlejsie ako vsetky tie AI simulatory

    https://twitter.com/WholeMarsBlog/status/1353644338127859713
    MESTREY
    MESTREY --- ---
    BOBASH: Okamzite jsem si vzpomnel na Level 5 taxik v Totall Recall :-D
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: žádá IT věc nefunguje na 100%, proto máš za každým serverem správce sítě a adminstrátory aplikací, co na něm běžej. Doufat, že něco takovýho nastane zrovna s autama, je cypovina. I sebelepší robotaxifleet bude mít někde bandu indů s handheldama a volantem na USB, co budou vytahovat auta zapadlý do vánice atd.

    BOBASH: ani smykem, pokud bys dokázal mít využitelnost 99%, tak ti kadžej fleet manager urve ruce, jak ti za ně bude nadšeně třást. Ta bude reálně někde na nižších desítkách procent.

    BOBASH: zastavení ve 100 na rovný silnici je podstatně jednodušší úkon než project městem. A má bezpečně brzdit, dokud si nebude jistej, což taky dělá.

    BOBASH: nesmí proč? protože si to řekli kluci z autobible?
    Kliknutím sem můžete změnit nastavení reklam