• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    LAUNCHERElektromobily 🏞️ 🛣️ 🏎️ 🚗 🚐 🚙 🚌 🚒 🚛 🔌
    BOBASH
    BOBASH --- ---
    JIMIQ: Ale musí si ho mačkat sám.
    JIMIQ
    JIMIQ --- ---
    Podle me je hlavne dulezite aby se autopilot zapinal a vypinal na mechanicke tlacitko
    BOBASH
    BOBASH --- ---
    OMNIHASH: Ad ten poměr – nejde o poměr počet aut/mrtví.

    Jde o to, že jakmile vinou technologie umřou lidi, bude společnost požadovat řešení. Ty vycházíš z předpokladu, že žijeme ve společnosti Vulkánců, kteří si spočítají, že je výhodnější, když občas někoho z nich zabije chyba počítače, než že o něco častěji někoho zabije chyba člověka.

    Takhle lidi nefungujou.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Kolik že kilometrů najezdila Tesla s autopilotem bez dohlížejícího řidiče?

    Ty zaměňuješ dvě zdánlivě podobný, ale ve skutečnosti naprosto odlišný situace.

    Autopilot jedoucí s dohlížejícím člověkem, kde když autopilot neví, tak člověk vyřeší situaci. V tomhle režimu je skutečně Tesla bezpečnější.

    Druhá situace je, když tam žádnej takovej člověk není a když autopilot selže nebo neví, tak to stejně musí nějak vyřešit.
    BOBASH
    BOBASH --- ---
    OMNIHASH: Ty tam třeba taky nejsou. Bavíme se o robotaxíku, tedy o věci, která musí být schopná se postarat sama o sebe i když jede někoho vyzvednout, tedy je prázdná.

    Takže nemůže spoléhat na to, že někoho upozorní, aby převzal řízení. Nikdo tam není, nebo tam může bejt někdo kdo má tři promile, nebo dítě, nebo krabice s věcma.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    LOPIK: Nechápu, v čem spatřuješ problém. Prostě by si Tesla vzala megapojistku a přeúčtovala ji majitelům v nějakém paušálu.

    Vzhledem ke spolehlivosti Autopilota by to bylo výrazně méně, než na kolik dosáhne lidský řidič, protože to riziko je co do frekvence i výše škod pro pojišťovnu výrazně nižší...
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: proč na mě křičíš? Uklidní tě slovo pasažéry? Sorry, jestli jsem urazil tvůj lexikologickej jemnocit.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Ne, Autopilot není bezpečný jako Autopilot plus řidič, Autopiot není schopen řídit sám.

    "Pro případ, že by Autopilot nerozpoznal dočasné přeznačení pruhů" – takže když tam ten řidič nebude, tak udělá autopilot co?

    Řízení podle kamery: Stejně jako není legální couvat podle kamery, není legální řídit auto podle kamery na dálku (ani podle kamery, radaru a sonaru). A pokud Autopilot neví, tak by operátor musel rozhodnout podle údajů ze senzorů.

    Ad dítě: Ano, pokud to dítě pozná. Ale když ho nepozná, nebo špatně vyhodnotí, a nebude tam člověk, kterej by na něj dohlížel, tak ho patrně přejede (nebo naopak pošle auto ze silnice kvůli krabici, nebo udělá něco jinýho).
    BOBASH
    BOBASH --- ---
    OMNIHASH: Ještě jednou:

    JAKOU POSÁDKU CHCEŠ UPOZORŇOVAT, KDYŽ TAM ŽÁDNÁ NENÍ?
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: ano, Boeingy spadly dva z osmi set, co zvládli prodat.Tesla prodá 500.000 aut ročně, stejnej poměr = 25.000.

    BOBASH: ve vlaku tě taky mašínfíra upozorní parní houkačkou, než dojde ke srážce, nevím, co tě na tom překvapuje. Dál vidím, že se neshodneme, já považuju všechny ty výstupy, kde se auta říděj sami, za výsledek AI, ne toho člověka, co sedí za volantem a kouká na to s otevřenou hubou.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Nevěděli, v přeškolení ze 737 NG na MAX tahle informace nebyla zahrnutá a MCAS tam byl kvůli těžišti vztlaku posunutýmu změnou velikosti a umístění motorů.

    A MCAS pracoval jen s jedním AoA senzorem, což byla jedna ze zásadních chyb.

    Piloti pak nevěděli, co se děje, a snažili se MCAS "přeprat" beranama, což ale jde těžko, když MCAS ovládá trim výškovky.

    Letadlům očividně rozumíš stejně málo jako autům, zkus prosím přestat poučovat lidi, kteří vědí víc než ty, je to už trapný.

    Tady si můžeš číst:

    https://www.seattletimes.com/...of-mcas-how-boeings-737-max-system-gained-power-and-lost-safeguards/
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Ano, a proto má Tesla těch senzorů fakt hodně, takže výpadek 1 či 2 neznamená vznik slepého místa.

    Ne, Autopilot je stejně bezpečný jako Autopilot+řidič. Ten řidič je tam navíc, pro případ že by třeba Autopilot nerozpoznal dočasné přeznačení pruhů a začal brzdit - to je to 0,001% situací v reálném provozu, kdy Autopilot neví.

    A ani pak nepotřebuje "řídit podle parkovací kamery" (Tvůj strawman), ale stačí mu ukázat, které "Object_Cone" ohraničují jeho jízdní pruh a on už to zvládne sám...

    V případě třeba dítěte ve vozovce to ale bude Autopilot, který o několik vteřin před řidičem vyhodnotí riziko a upraví rychlost/směr jízdy.
    LA_PIOVRA
    LA_PIOVRA --- ---
    BOBASH: zminka o Parizi: minuly tyden jsem ridil prave v Parizi, v odpoledni spicce, za tmy a deste. Naprosta anarchie, pravo silnejsiho a odvaznejsiho. Pri dodrzovani predpisu imho naprosty no-go.
    Jak by se s tim popasovalo autonomni rizeni, ze dopravni predpisy v tu chvili nic neznamenaj?
    LOPIK
    LOPIK --- ---
    Az Tesla nebo jinej vyrobce prevezme plnou odpovednost za nehody jejich vyrobku (coz obnasi u nas i zmenu legislativy) nebo nejak presvedci pojistovny, ze to nepujde za "ridicem", tak pak se jde bavit o autonomnich vozidlech v silnicnim provozu. Coz mimochodem znamena i to, ze az pak zkrachuje vyrobce, tak muzes vozitko odstavit. Technicky veci jsou jen cast celyho problemu.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Piloti samozřejmě věděli, že tam MCAS je. Je povinný. Nevěděli však, že tuhle novou verzi nejde dlouhodobě vypnout při manuálním řešení - že se vždy vyresetuje

    Stejně tak systém nemohl tušit, který ze 2 senzorů (místo nejméně 4) je vadný a tak zvolil předpoklad, že ta horší možnost je správně a snažil se letadlo zachránit - pilotům navzdory.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Co bylo na Maxu špatně jsem popsal níže. A problém nebyl v selhání čidel, selhání čidel je normální věc, se kterou si systém musí umět poradit.

    Stejně tak si auto, který má být schopno toho, co Musk slibuje (robotickej taxík – tedy schopnost operovat bez posádky na palubě) musí umět poradit se selháním jakéhokoliv senzoru, kterým je vybaveno, stejně jako s jakoukoliv situací způsobenou počasím, provozem, čímkoliv.

    Je hezký, že Tesla je díky Autopilotu bezpečnější než normální auto, ale to není o tom, že je Autopilot bezpečnější než řidič.

    To je o tom, že Autopilot + řidič je bezpečnější než jen řidič.

    Pokud se bavíme o FSD, bavíme se o tom, že tam není řidič. A Autopilot sám o sobě rozhodně bezpečnější než řidič není, protože samostatný funkce ani není schopen.
    BOBASH
    BOBASH --- ---
    OMNIHASH: Počkej počkej, jaký pravidlo, že když AI neví, tak vehementně upozorňuje posádku?

    JAKOU POSÁDKU?

    Bavíme se o tom, že Musk tvrdí, že FSD umožní provozovat Teslu jako robotickej taxík. V robotickým taxíku není posádka, je tam jen pasažér (od kterýho nemůžeš očekávat řízení auta, protože je pasažér, ne řidič) a to ještě jen někdy.

    TAK JAKOU POSÁDKU MÁ UPOZORŇOVAT?

    To, že je AI bezpečnější než lidi, je zajímavý pro systémy Level 1 - Level 4, což jsou všechno pořád "asistenti řidiče" – řidič tam pořád musí bejt, pořád musí bejt schopen řídit (má řidičák, není ožralej..) a díky AI bude jezdit bezpečněji.

    Ale FSD slibuje schopnost auta jezdit samostatně, a na to je potřeba plnohodnotná Level 5.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Pořád meleš nesmysly... OMNIHASH to posal velmi přesně a velmi realisticky a ty se zmůžeš sotva na pár HOAXů (bílej náklaďák), blekotání nesmyslů o tom, že AI nerozpozná lidi a zajede je a totálního nesmyslu o 737 MAX.

    737 MAX nebylo na zemi kvůli vadě "asistenčního systému", ale kvůli vadě senzorů, na které se (nikoliv asistenční, ale bezpečnostní) systém spoléhal. Ten systém má zabránit tomu, aby to s tím letadlem pilot (ne)úmyslně někam napálil nebo se dostal do pádového stoupání.

    Kvůli šetření bylo na některých letadlech méně čidel a po jejich poruše dostal systém chybná data, z kterých opakovaně vyhodnocoval ohrožení letadla a s každým vyhodnocením opakovaně zapínal nouzového autopilota, což piloti nestíhali vypínat.
    BOBASH
    BOBASH --- ---
    OMNIHASH: Těch 25 tisíc jsi vzal kde? Boeingy spadly dva...

    Problém u 737 MAX nebyl přímo s autopilotem, ale s MCAS, což je něco jako ESP u auta ("sahá" do řízení v případě, že se letadlo dostane do situace, ve který by být nemělo, v tomto případě vysokej úhel náběhu). Problém byl v tom, že v případě selhání jednoho senzoru úhlu náběhu (AoA) neuměl MCAS porovnat údaje z obou dvou, neuměl ani pracovat podle toho druhýho a dokonce ani pilotům neřekl, že tam je nesouhlas.
    Druhej problém byl, že piloti nevěděli, že tam ten MCAS je.

    Nemohli tedy vyřešit problém tak, jak by vyřešit šel, tedy vypnout MCAS a letět sami.

    Teoreticky by k vyřešení problému, který by sice nebylo 100%, ale eliminovalo by velkou část rizika, stačilo dodělat do všech Maxů ukazatel nesouladu AoA senzorů a upozornit piloty, co mají dělat.
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: njn, špatnej trh. Boeingů bylo 400, kdyby autopilot způsobil 25.000 havárií za rok, taky ho stáhnou z nabídky.
    Jinak, že se dočkám tvrzení, že problém s autopilotem letadla, kterej má tendenci to napálit kolmo do země, se dá vyřešit bulletinem, zrovna od tebe, jsem fakt nečekal. Člověk by si pocitově řekl, že je menší problém ne/zastavit před kočkou, než rozmáznout tři sta lidí na prvosoučástky.
    Implementaci pravidla, když AI neví, vehementně upozorňuje posádku a okamžitě bezpečně staví, beru jako krok č.1 a vypadá to, že se s Teslou shodujeme.
    S tou plnou autonomií máš pravdu, nicméně pomíjíš, že není úplně potřeba. Stačí, aby bylo AI o řád bezpečnější, než lidi, a prakticky toho dosáhla.
    Kliknutím sem můžete změnit nastavení reklam