• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    LAUNCHERElektromobily 🏞️ 🛣️ 🏎️ 🚗 🚐 🚙 🚌 🚒 🚛 🔌
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Nemusí.
    To tlačítko může být zabudované třeba v sedadle a uvolní se ve chvíli, kdy na žádném sedadle nebude ležet nic s 10+ kg.

    BOBASH: Ke krajnici ve směru jízdy, to platí všude. A protože situaci vidí s předstihem, tak má čas z těch 80 zpomalit na 30. Vymýšlíš nesmysly.

    Waymo coby "digitální mini-trolejbus" je na tom mnohem hůř, protože si musí uvědomit, že jede na "virtuální troleji", která vede špatně a musí "přeskočit" na jinou.

    Pokud třeba Waymu zapomenou nahlásit výkop, tak nejspíš s klidem hupsne do díry, protože podle Waymo-mapy má jet rovně 3m vlevo od linie obrubníků 130a až 130n, resp. 5m vpravo od vystupující domovní římsy f3D4gh5tQ
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: On musí vyřešit to, jak a kde má zastavit.

    V rychlostech nad těch 30, možná 40 km/h nemůžeš řešit situací, kdy nevíš, tím, že prostě zastavíš. Musíš vědět kam uhnout, musíš vědět jak rychle brzdit, jestli je bezpečný zastavit tam, kde jsi, nebo jestli potřebuješ popojet a kam.

    Navíc pokud situace "nevím" zahrnuje překážku 30 metrů před autem v rychlosti 120 km/h (což není vůbec nerealistická situace), tak musíš vědět, kam se vyhnout, případně jestli se vyhnout. A máš na řešení MAXIMÁLNĚ vteřinu, spíš míň.

    Typická už zmiňovaná situace je "něco přede mnou je, nevím, jestli je to zajíc, dítě nebo kartonová krabice foukaná větrem, ocitlo se mi to náhle v jízdním pruhu, co mám dělat"?

    Bude zcela nepochybně super, že operátor, kterej si zpětně prohlídne záznam kamery, řekne autu:
    a) "Byla to krabice, mohl jsi jí přejet, nebylo potřeba skočit do příkopu."
    b) "Bylo to dítě, měl jsi skočit do příkopu."
    BOBASH
    BOBASH --- ---
    OMNIHASH: Já tvoje úrovně řešitelů chápu a autíčka, co se sunou po městě 30-40 km/h takhle nejspíš budou moct fungovat za pár let.

    Rozdíl je totiž v tom, že ze 30 km/h zastavíš na dvou metrech a tudíž nejhorší, co se může stát, je že zablokuješ provoz.

    (a pořád tam máš ten problém, že musíš počítat s tím, že v autě není posádka žádná, takže nemůžeš vůbec nic svěřit posádce – prostě neexistuje možnost "zeptám se člověka uvnitř", ani kdyby tam byl tak nesmíš, protože nevíš, jestli umí řídit atd.)

    Auta jezdící mimo město takhle fungovat nemůžou, protože je spousta situací, kdy na cestě od cestovní rychlosti 130 km/h po dálnici k bezpečnýmu zastavení a zavolání supportu je spousta prostoru, jak někoho zabít.

    Takže Tesla reálný FSD mít hned tak nebude, leda by bylo geofencovaný na nějakou oblast a limitovaný na nějakou nízkou rychlost.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Přítomnost dohlížejícího řidiče je irelevantní, pokud nic nedělá (a třeba spí).

    Ne, nemusí to vyřešit. Může zastavit a zavolat support. Ten mrkne na log a pošle "SMS": "Jeď vpravo".
    Narozdíl od člověka, co sice neví, ale "nějak" se rozhodne a skončí na dálnici v protisměru v rychlém pruhu.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Ale zastavit může jen pokud ví kam má zastavit a kudy se má vyhnout.

    Něco jinýho je Waymo plížící se po městě třicítkou, zastavení v 80 nebo dokonce 100+ km/h už je dost náročnej úkol, pokud tam máš nějakou neznámou nebo nějakej fail.
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: už tě chápu, myslel jsem to spíš ve stylu brace yourself, pokud někdo může převzít řízení, je to jenom bonus.

    Já s tvejma vývodama v podstatě souhlasím, jenom si myslím, že ty limity/tresholdy jsou jinde jak technicky, tak společensky.

    DAN_F: v klasickejch korporátech se to řeší hierarchií řešitelů. 99% odfiltuješ automaticky, dalších 95% na 1.lvlu pár klikama na touchscreenu, když to nevyjde, předáš to dál člověku s USB volantem, a když nevyjde ani to, nastupuje developer/odtahovka.

    LOPIK to imho vystih přesně. Akorát si myslím, že to nastane dřív, než pozdějš, a spíš než na technice to visí na ekonomice. Až se někomu tu odpovědnost vyplatí převzít za 19,99$ měsíčně, tak je to tu, a nemusí to nutně obnášet plně autonomní auta, jenom dostatečně na to, aby se to peněžně vyplatilo.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Už jsem to psal. Když tam ten řidič nebude, tak robotaxík zpomalí/zastaví a zavolá support a ten mu ukáže ty správné kužely.

    Případně se porozhlédne kolem, jak to řeší ostatní, lidově řečeno se "zahákne" za jiné vozidlo a odpojí se až poté co projede nerozpoznanou situací.

    Než budou převažovat robotaxíky, tak se silničáři určitě naučí používat kužely s šipkama...
    BOBASH
    BOBASH --- ---
    LA_PIOVRA: Jediná cesta, jak masově nasadit plně autonomní řízení, je zakázat manuální řízení.

    Good luck with that.
    BOBASH
    BOBASH --- ---
    DAN_F: Já bych tu legislativu tak nepodceňoval, podle mě ve chvíli, kdy bude vyřešený všechno, co jsem níže zmiňoval, to dá legislativě 3-5 let.

    Ale ono to nebude vyřešený nejspíš dřív než za 10 let.

    Leda by Musk byl větší génius než si myslíme a Krafcik z Waymo tomu nerozuměl.

    Ale já tak nějak spíš věřím tomu, že Musk zase trošku machruje a přehání, a až představí FSD, tak to ve skutečnosti bude Level 4 řidičskej asistent a žádný robotaxíky nebudou.
    DAN_F
    DAN_F --- ---
    BOBASH: V konvenčním provozu a masovém nasazení by to samozřejmě byl problém, už jen kvůli kapacitě operátorů. Navíc teda, už jsem to tu kdysi vysvětloval, ale samozřejmě že ten zásah operátora neprobíhá prostřednictvím vzdáleného řízení přes USB volant, jak si někteří představují, kontrolu má pořád systém auta a operátor mu akorát "vysvětlí", co je to za situaci a co se děje a systém auta pak situaci řeší dál.

    Jinak teda, i kdyby Tesla měla systém na plně automatické a autonomní řízení letos, v Evropě bychom se ho stejně v nadcházejících 10–20 letech nedočkali kvůli legislativě, regulacím a komplikovanosti provozu ve srovnání s US, takže se ho možná dočkáte jako důchodci a do té doby se stejně budete muset smířit s nějakým L3 systémem, tudíž pojďme radši zpět k tlačítkům :)
    BOBASH
    BOBASH --- ---
    JIMIQ: Ale musí si ho mačkat sám.
    JIMIQ
    JIMIQ --- ---
    Podle me je hlavne dulezite aby se autopilot zapinal a vypinal na mechanicke tlacitko
    BOBASH
    BOBASH --- ---
    OMNIHASH: Ad ten poměr – nejde o poměr počet aut/mrtví.

    Jde o to, že jakmile vinou technologie umřou lidi, bude společnost požadovat řešení. Ty vycházíš z předpokladu, že žijeme ve společnosti Vulkánců, kteří si spočítají, že je výhodnější, když občas někoho z nich zabije chyba počítače, než že o něco častěji někoho zabije chyba člověka.

    Takhle lidi nefungujou.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Kolik že kilometrů najezdila Tesla s autopilotem bez dohlížejícího řidiče?

    Ty zaměňuješ dvě zdánlivě podobný, ale ve skutečnosti naprosto odlišný situace.

    Autopilot jedoucí s dohlížejícím člověkem, kde když autopilot neví, tak člověk vyřeší situaci. V tomhle režimu je skutečně Tesla bezpečnější.

    Druhá situace je, když tam žádnej takovej člověk není a když autopilot selže nebo neví, tak to stejně musí nějak vyřešit.
    BOBASH
    BOBASH --- ---
    OMNIHASH: Ty tam třeba taky nejsou. Bavíme se o robotaxíku, tedy o věci, která musí být schopná se postarat sama o sebe i když jede někoho vyzvednout, tedy je prázdná.

    Takže nemůže spoléhat na to, že někoho upozorní, aby převzal řízení. Nikdo tam není, nebo tam může bejt někdo kdo má tři promile, nebo dítě, nebo krabice s věcma.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    LOPIK: Nechápu, v čem spatřuješ problém. Prostě by si Tesla vzala megapojistku a přeúčtovala ji majitelům v nějakém paušálu.

    Vzhledem ke spolehlivosti Autopilota by to bylo výrazně méně, než na kolik dosáhne lidský řidič, protože to riziko je co do frekvence i výše škod pro pojišťovnu výrazně nižší...
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: proč na mě křičíš? Uklidní tě slovo pasažéry? Sorry, jestli jsem urazil tvůj lexikologickej jemnocit.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Ne, Autopilot není bezpečný jako Autopilot plus řidič, Autopiot není schopen řídit sám.

    "Pro případ, že by Autopilot nerozpoznal dočasné přeznačení pruhů" – takže když tam ten řidič nebude, tak udělá autopilot co?

    Řízení podle kamery: Stejně jako není legální couvat podle kamery, není legální řídit auto podle kamery na dálku (ani podle kamery, radaru a sonaru). A pokud Autopilot neví, tak by operátor musel rozhodnout podle údajů ze senzorů.

    Ad dítě: Ano, pokud to dítě pozná. Ale když ho nepozná, nebo špatně vyhodnotí, a nebude tam člověk, kterej by na něj dohlížel, tak ho patrně přejede (nebo naopak pošle auto ze silnice kvůli krabici, nebo udělá něco jinýho).
    BOBASH
    BOBASH --- ---
    OMNIHASH: Ještě jednou:

    JAKOU POSÁDKU CHCEŠ UPOZORŇOVAT, KDYŽ TAM ŽÁDNÁ NENÍ?
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: ano, Boeingy spadly dva z osmi set, co zvládli prodat.Tesla prodá 500.000 aut ročně, stejnej poměr = 25.000.

    BOBASH: ve vlaku tě taky mašínfíra upozorní parní houkačkou, než dojde ke srážce, nevím, co tě na tom překvapuje. Dál vidím, že se neshodneme, já považuju všechny ty výstupy, kde se auta říděj sami, za výsledek AI, ne toho člověka, co sedí za volantem a kouká na to s otevřenou hubou.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Nevěděli, v přeškolení ze 737 NG na MAX tahle informace nebyla zahrnutá a MCAS tam byl kvůli těžišti vztlaku posunutýmu změnou velikosti a umístění motorů.

    A MCAS pracoval jen s jedním AoA senzorem, což byla jedna ze zásadních chyb.

    Piloti pak nevěděli, co se děje, a snažili se MCAS "přeprat" beranama, což ale jde těžko, když MCAS ovládá trim výškovky.

    Letadlům očividně rozumíš stejně málo jako autům, zkus prosím přestat poučovat lidi, kteří vědí víc než ty, je to už trapný.

    Tady si můžeš číst:

    https://www.seattletimes.com/...of-mcas-how-boeings-737-max-system-gained-power-and-lost-safeguards/
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Ano, a proto má Tesla těch senzorů fakt hodně, takže výpadek 1 či 2 neznamená vznik slepého místa.

    Ne, Autopilot je stejně bezpečný jako Autopilot+řidič. Ten řidič je tam navíc, pro případ že by třeba Autopilot nerozpoznal dočasné přeznačení pruhů a začal brzdit - to je to 0,001% situací v reálném provozu, kdy Autopilot neví.

    A ani pak nepotřebuje "řídit podle parkovací kamery" (Tvůj strawman), ale stačí mu ukázat, které "Object_Cone" ohraničují jeho jízdní pruh a on už to zvládne sám...

    V případě třeba dítěte ve vozovce to ale bude Autopilot, který o několik vteřin před řidičem vyhodnotí riziko a upraví rychlost/směr jízdy.
    LA_PIOVRA
    LA_PIOVRA --- ---
    BOBASH: zminka o Parizi: minuly tyden jsem ridil prave v Parizi, v odpoledni spicce, za tmy a deste. Naprosta anarchie, pravo silnejsiho a odvaznejsiho. Pri dodrzovani predpisu imho naprosty no-go.
    Jak by se s tim popasovalo autonomni rizeni, ze dopravni predpisy v tu chvili nic neznamenaj?
    LOPIK
    LOPIK --- ---
    Az Tesla nebo jinej vyrobce prevezme plnou odpovednost za nehody jejich vyrobku (coz obnasi u nas i zmenu legislativy) nebo nejak presvedci pojistovny, ze to nepujde za "ridicem", tak pak se jde bavit o autonomnich vozidlech v silnicnim provozu. Coz mimochodem znamena i to, ze az pak zkrachuje vyrobce, tak muzes vozitko odstavit. Technicky veci jsou jen cast celyho problemu.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Piloti samozřejmě věděli, že tam MCAS je. Je povinný. Nevěděli však, že tuhle novou verzi nejde dlouhodobě vypnout při manuálním řešení - že se vždy vyresetuje

    Stejně tak systém nemohl tušit, který ze 2 senzorů (místo nejméně 4) je vadný a tak zvolil předpoklad, že ta horší možnost je správně a snažil se letadlo zachránit - pilotům navzdory.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Co bylo na Maxu špatně jsem popsal níže. A problém nebyl v selhání čidel, selhání čidel je normální věc, se kterou si systém musí umět poradit.

    Stejně tak si auto, který má být schopno toho, co Musk slibuje (robotickej taxík – tedy schopnost operovat bez posádky na palubě) musí umět poradit se selháním jakéhokoliv senzoru, kterým je vybaveno, stejně jako s jakoukoliv situací způsobenou počasím, provozem, čímkoliv.

    Je hezký, že Tesla je díky Autopilotu bezpečnější než normální auto, ale to není o tom, že je Autopilot bezpečnější než řidič.

    To je o tom, že Autopilot + řidič je bezpečnější než jen řidič.

    Pokud se bavíme o FSD, bavíme se o tom, že tam není řidič. A Autopilot sám o sobě rozhodně bezpečnější než řidič není, protože samostatný funkce ani není schopen.
    BOBASH
    BOBASH --- ---
    OMNIHASH: Počkej počkej, jaký pravidlo, že když AI neví, tak vehementně upozorňuje posádku?

    JAKOU POSÁDKU?

    Bavíme se o tom, že Musk tvrdí, že FSD umožní provozovat Teslu jako robotickej taxík. V robotickým taxíku není posádka, je tam jen pasažér (od kterýho nemůžeš očekávat řízení auta, protože je pasažér, ne řidič) a to ještě jen někdy.

    TAK JAKOU POSÁDKU MÁ UPOZORŇOVAT?

    To, že je AI bezpečnější než lidi, je zajímavý pro systémy Level 1 - Level 4, což jsou všechno pořád "asistenti řidiče" – řidič tam pořád musí bejt, pořád musí bejt schopen řídit (má řidičák, není ožralej..) a díky AI bude jezdit bezpečněji.

    Ale FSD slibuje schopnost auta jezdit samostatně, a na to je potřeba plnohodnotná Level 5.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Pořád meleš nesmysly... OMNIHASH to posal velmi přesně a velmi realisticky a ty se zmůžeš sotva na pár HOAXů (bílej náklaďák), blekotání nesmyslů o tom, že AI nerozpozná lidi a zajede je a totálního nesmyslu o 737 MAX.

    737 MAX nebylo na zemi kvůli vadě "asistenčního systému", ale kvůli vadě senzorů, na které se (nikoliv asistenční, ale bezpečnostní) systém spoléhal. Ten systém má zabránit tomu, aby to s tím letadlem pilot (ne)úmyslně někam napálil nebo se dostal do pádového stoupání.

    Kvůli šetření bylo na některých letadlech méně čidel a po jejich poruše dostal systém chybná data, z kterých opakovaně vyhodnocoval ohrožení letadla a s každým vyhodnocením opakovaně zapínal nouzového autopilota, což piloti nestíhali vypínat.
    BOBASH
    BOBASH --- ---
    OMNIHASH: Těch 25 tisíc jsi vzal kde? Boeingy spadly dva...

    Problém u 737 MAX nebyl přímo s autopilotem, ale s MCAS, což je něco jako ESP u auta ("sahá" do řízení v případě, že se letadlo dostane do situace, ve který by být nemělo, v tomto případě vysokej úhel náběhu). Problém byl v tom, že v případě selhání jednoho senzoru úhlu náběhu (AoA) neuměl MCAS porovnat údaje z obou dvou, neuměl ani pracovat podle toho druhýho a dokonce ani pilotům neřekl, že tam je nesouhlas.
    Druhej problém byl, že piloti nevěděli, že tam ten MCAS je.

    Nemohli tedy vyřešit problém tak, jak by vyřešit šel, tedy vypnout MCAS a letět sami.

    Teoreticky by k vyřešení problému, který by sice nebylo 100%, ale eliminovalo by velkou část rizika, stačilo dodělat do všech Maxů ukazatel nesouladu AoA senzorů a upozornit piloty, co mají dělat.
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: njn, špatnej trh. Boeingů bylo 400, kdyby autopilot způsobil 25.000 havárií za rok, taky ho stáhnou z nabídky.
    Jinak, že se dočkám tvrzení, že problém s autopilotem letadla, kterej má tendenci to napálit kolmo do země, se dá vyřešit bulletinem, zrovna od tebe, jsem fakt nečekal. Člověk by si pocitově řekl, že je menší problém ne/zastavit před kočkou, než rozmáznout tři sta lidí na prvosoučástky.
    Implementaci pravidla, když AI neví, vehementně upozorňuje posádku a okamžitě bezpečně staví, beru jako krok č.1 a vypadá to, že se s Teslou shodujeme.
    S tou plnou autonomií máš pravdu, nicméně pomíjíš, že není úplně potřeba. Stačí, aby bylo AI o řád bezpečnější, než lidi, a prakticky toho dosáhla.
    Kliknutím sem můžete změnit nastavení reklam