• úvod
  • témata
  • události
  • tržiště
  • diskuze
  • nástěnka
  • přihlásit
    registrace
    ztracené heslo?
    LAUNCHERElektromobily 🏞️ 🛣️ 🏎️ 🚗 🚐 🚙 🚌 🚒 🚛 🔌
    Vitejte v boardu Elektromobily!

    Prosim dodrzujme stejna rules*, jako napriklad v obdobnych subreddits na Redditu.

    1) Zadne vulgarity.
    2) Toto je SFW board.
    3) Bez ICE prosim, na to jsou na Nyxu vhodnejsi boardy.
    4) Toto neni vhodny board pro napr. vase culture wars proti EV.
    5) Board je urceny primarne pro majitele EV a zajemce o nakup EV. Omladina "az mi bude 18+" tez vitana, fandim vam.
    6) Idealne drzme diskuzi v pratelskem duchu.
    7) Mit nazor na CN automobilky, Elona Muska, temnou minulost nekterych DE a IT automobilek, Henryho Forda I atd, muzete. Ale prosim snazte se neprekrocit bod 6, nebo dokonce bod 1. Pro tyto ucely prosim vyhledejte boardy vhodne pro ostrou socialni nebo politickou kritiku.

    Diky za pochopeni 🤦‍♂️ Pozor, druhé varování může být za 7 dnů RO i hůře.

    Prejeme prijemnou zabavu 🚗🔋 a hlavne bezpecne kilometry za volantem / s autopilotem.

    * Work in progress
    rozbalit záhlaví
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Kolik že kilometrů najezdila Tesla s autopilotem bez dohlížejícího řidiče?

    Ty zaměňuješ dvě zdánlivě podobný, ale ve skutečnosti naprosto odlišný situace.

    Autopilot jedoucí s dohlížejícím člověkem, kde když autopilot neví, tak člověk vyřeší situaci. V tomhle režimu je skutečně Tesla bezpečnější.

    Druhá situace je, když tam žádnej takovej člověk není a když autopilot selže nebo neví, tak to stejně musí nějak vyřešit.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    LOPIK: Nechápu, v čem spatřuješ problém. Prostě by si Tesla vzala megapojistku a přeúčtovala ji majitelům v nějakém paušálu.

    Vzhledem ke spolehlivosti Autopilota by to bylo výrazně méně, než na kolik dosáhne lidský řidič, protože to riziko je co do frekvence i výše škod pro pojišťovnu výrazně nižší...
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: proč na mě křičíš? Uklidní tě slovo pasažéry? Sorry, jestli jsem urazil tvůj lexikologickej jemnocit.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Ne, Autopilot není bezpečný jako Autopilot plus řidič, Autopiot není schopen řídit sám.

    "Pro případ, že by Autopilot nerozpoznal dočasné přeznačení pruhů" – takže když tam ten řidič nebude, tak udělá autopilot co?

    Řízení podle kamery: Stejně jako není legální couvat podle kamery, není legální řídit auto podle kamery na dálku (ani podle kamery, radaru a sonaru). A pokud Autopilot neví, tak by operátor musel rozhodnout podle údajů ze senzorů.

    Ad dítě: Ano, pokud to dítě pozná. Ale když ho nepozná, nebo špatně vyhodnotí, a nebude tam člověk, kterej by na něj dohlížel, tak ho patrně přejede (nebo naopak pošle auto ze silnice kvůli krabici, nebo udělá něco jinýho).
    BOBASH
    BOBASH --- ---
    OMNIHASH: Ještě jednou:

    JAKOU POSÁDKU CHCEŠ UPOZORŇOVAT, KDYŽ TAM ŽÁDNÁ NENÍ?
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: ano, Boeingy spadly dva z osmi set, co zvládli prodat.Tesla prodá 500.000 aut ročně, stejnej poměr = 25.000.

    BOBASH: ve vlaku tě taky mašínfíra upozorní parní houkačkou, než dojde ke srážce, nevím, co tě na tom překvapuje. Dál vidím, že se neshodneme, já považuju všechny ty výstupy, kde se auta říděj sami, za výsledek AI, ne toho člověka, co sedí za volantem a kouká na to s otevřenou hubou.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Nevěděli, v přeškolení ze 737 NG na MAX tahle informace nebyla zahrnutá a MCAS tam byl kvůli těžišti vztlaku posunutýmu změnou velikosti a umístění motorů.

    A MCAS pracoval jen s jedním AoA senzorem, což byla jedna ze zásadních chyb.

    Piloti pak nevěděli, co se děje, a snažili se MCAS "přeprat" beranama, což ale jde těžko, když MCAS ovládá trim výškovky.

    Letadlům očividně rozumíš stejně málo jako autům, zkus prosím přestat poučovat lidi, kteří vědí víc než ty, je to už trapný.

    Tady si můžeš číst:

    https://www.seattletimes.com/...of-mcas-how-boeings-737-max-system-gained-power-and-lost-safeguards/
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Ano, a proto má Tesla těch senzorů fakt hodně, takže výpadek 1 či 2 neznamená vznik slepého místa.

    Ne, Autopilot je stejně bezpečný jako Autopilot+řidič. Ten řidič je tam navíc, pro případ že by třeba Autopilot nerozpoznal dočasné přeznačení pruhů a začal brzdit - to je to 0,001% situací v reálném provozu, kdy Autopilot neví.

    A ani pak nepotřebuje "řídit podle parkovací kamery" (Tvůj strawman), ale stačí mu ukázat, které "Object_Cone" ohraničují jeho jízdní pruh a on už to zvládne sám...

    V případě třeba dítěte ve vozovce to ale bude Autopilot, který o několik vteřin před řidičem vyhodnotí riziko a upraví rychlost/směr jízdy.
    LA_PIOVRA
    LA_PIOVRA --- ---
    BOBASH: zminka o Parizi: minuly tyden jsem ridil prave v Parizi, v odpoledni spicce, za tmy a deste. Naprosta anarchie, pravo silnejsiho a odvaznejsiho. Pri dodrzovani predpisu imho naprosty no-go.
    Jak by se s tim popasovalo autonomni rizeni, ze dopravni predpisy v tu chvili nic neznamenaj?
    LOPIK
    LOPIK --- ---
    Az Tesla nebo jinej vyrobce prevezme plnou odpovednost za nehody jejich vyrobku (coz obnasi u nas i zmenu legislativy) nebo nejak presvedci pojistovny, ze to nepujde za "ridicem", tak pak se jde bavit o autonomnich vozidlech v silnicnim provozu. Coz mimochodem znamena i to, ze az pak zkrachuje vyrobce, tak muzes vozitko odstavit. Technicky veci jsou jen cast celyho problemu.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Piloti samozřejmě věděli, že tam MCAS je. Je povinný. Nevěděli však, že tuhle novou verzi nejde dlouhodobě vypnout při manuálním řešení - že se vždy vyresetuje

    Stejně tak systém nemohl tušit, který ze 2 senzorů (místo nejméně 4) je vadný a tak zvolil předpoklad, že ta horší možnost je správně a snažil se letadlo zachránit - pilotům navzdory.
    BOBASH
    BOBASH --- ---
    COMODOR_FALKON: Co bylo na Maxu špatně jsem popsal níže. A problém nebyl v selhání čidel, selhání čidel je normální věc, se kterou si systém musí umět poradit.

    Stejně tak si auto, který má být schopno toho, co Musk slibuje (robotickej taxík – tedy schopnost operovat bez posádky na palubě) musí umět poradit se selháním jakéhokoliv senzoru, kterým je vybaveno, stejně jako s jakoukoliv situací způsobenou počasím, provozem, čímkoliv.

    Je hezký, že Tesla je díky Autopilotu bezpečnější než normální auto, ale to není o tom, že je Autopilot bezpečnější než řidič.

    To je o tom, že Autopilot + řidič je bezpečnější než jen řidič.

    Pokud se bavíme o FSD, bavíme se o tom, že tam není řidič. A Autopilot sám o sobě rozhodně bezpečnější než řidič není, protože samostatný funkce ani není schopen.
    BOBASH
    BOBASH --- ---
    OMNIHASH: Počkej počkej, jaký pravidlo, že když AI neví, tak vehementně upozorňuje posádku?

    JAKOU POSÁDKU?

    Bavíme se o tom, že Musk tvrdí, že FSD umožní provozovat Teslu jako robotickej taxík. V robotickým taxíku není posádka, je tam jen pasažér (od kterýho nemůžeš očekávat řízení auta, protože je pasažér, ne řidič) a to ještě jen někdy.

    TAK JAKOU POSÁDKU MÁ UPOZORŇOVAT?

    To, že je AI bezpečnější než lidi, je zajímavý pro systémy Level 1 - Level 4, což jsou všechno pořád "asistenti řidiče" – řidič tam pořád musí bejt, pořád musí bejt schopen řídit (má řidičák, není ožralej..) a díky AI bude jezdit bezpečněji.

    Ale FSD slibuje schopnost auta jezdit samostatně, a na to je potřeba plnohodnotná Level 5.
    COMODOR_FALKON
    COMODOR_FALKON --- ---
    BOBASH: Pořád meleš nesmysly... OMNIHASH to posal velmi přesně a velmi realisticky a ty se zmůžeš sotva na pár HOAXů (bílej náklaďák), blekotání nesmyslů o tom, že AI nerozpozná lidi a zajede je a totálního nesmyslu o 737 MAX.

    737 MAX nebylo na zemi kvůli vadě "asistenčního systému", ale kvůli vadě senzorů, na které se (nikoliv asistenční, ale bezpečnostní) systém spoléhal. Ten systém má zabránit tomu, aby to s tím letadlem pilot (ne)úmyslně někam napálil nebo se dostal do pádového stoupání.

    Kvůli šetření bylo na některých letadlech méně čidel a po jejich poruše dostal systém chybná data, z kterých opakovaně vyhodnocoval ohrožení letadla a s každým vyhodnocením opakovaně zapínal nouzového autopilota, což piloti nestíhali vypínat.
    BOBASH
    BOBASH --- ---
    OMNIHASH: Těch 25 tisíc jsi vzal kde? Boeingy spadly dva...

    Problém u 737 MAX nebyl přímo s autopilotem, ale s MCAS, což je něco jako ESP u auta ("sahá" do řízení v případě, že se letadlo dostane do situace, ve který by být nemělo, v tomto případě vysokej úhel náběhu). Problém byl v tom, že v případě selhání jednoho senzoru úhlu náběhu (AoA) neuměl MCAS porovnat údaje z obou dvou, neuměl ani pracovat podle toho druhýho a dokonce ani pilotům neřekl, že tam je nesouhlas.
    Druhej problém byl, že piloti nevěděli, že tam ten MCAS je.

    Nemohli tedy vyřešit problém tak, jak by vyřešit šel, tedy vypnout MCAS a letět sami.

    Teoreticky by k vyřešení problému, který by sice nebylo 100%, ale eliminovalo by velkou část rizika, stačilo dodělat do všech Maxů ukazatel nesouladu AoA senzorů a upozornit piloty, co mají dělat.
    OMNIHASH
    OMNIHASH --- ---
    BOBASH: njn, špatnej trh. Boeingů bylo 400, kdyby autopilot způsobil 25.000 havárií za rok, taky ho stáhnou z nabídky.
    Jinak, že se dočkám tvrzení, že problém s autopilotem letadla, kterej má tendenci to napálit kolmo do země, se dá vyřešit bulletinem, zrovna od tebe, jsem fakt nečekal. Člověk by si pocitově řekl, že je menší problém ne/zastavit před kočkou, než rozmáznout tři sta lidí na prvosoučástky.
    Implementaci pravidla, když AI neví, vehementně upozorňuje posádku a okamžitě bezpečně staví, beru jako krok č.1 a vypadá to, že se s Teslou shodujeme.
    S tou plnou autonomií máš pravdu, nicméně pomíjíš, že není úplně potřeba. Stačí, aby bylo AI o řád bezpečnější, než lidi, a prakticky toho dosáhla.
    BOBASH
    BOBASH --- ---
    DAN_F: Waymo je taky testovací provoz, moc nevěřím tomu, že by tohle prošlo trvale.

    A pořád to neřeší to, že nejdřív musí to auto bezpečně zastavit na místě, kde nikoho neohrozí/neomezí.
    DAN_F
    DAN_F --- ---
    BOBASH: Waymo v situacích, kdy neví, ovládá na dálku "týpek ze support centra" :)
    BOBASH
    BOBASH --- ---
    OMNIHASH: Nejsou 100%, ale jejich cílem je být 100% a když se objeví něco, co se posralo, tak se to řeší.

    Viz systémy v letadlech. Spadnou ti dvě letadla, protože blbě zafungoval "asistenční systém" a i když většina fleetu 737 MAX měla ten problém redukovanej tím, že měla příplatkový indikátory AoA senzorů, a ten problém by se s velkou měrou pravděpodobnosti dal vyřešit bulletinem s informací, co dělat, když to začne blbnout, tak se celej fleet uzemnil na víc než rok.

    Tolik k zájmovým skupinám a finančním benefitům. Až pár roboaut někoho zabije, bude to vypadat stejně jako se 737 MAX, nebo možná ještě hůř, protože lidi se víc bojej věci, kterou viděj jezdit kolem sebe, než spadlýho letadla v Africe. A velká část veřejnosti bude k autonomním autům EXTRÉMNĚ nepřátelská.

    Ad 4) Udělá a neudělá.

    AI umí rychleji zpracovávat informace, ale neumí přemýšlet. Ne že přemýšlí hůř, prostě nepřemýšlí. Takže jakmile se setká s něčím, co nebude mít naučený, tak jí veškerej výpočetní výkon je úplně k hovnu, protože nebude vědět.

    Proto je na vývoji autonomních aut naprosto nejtěžší krok z level 4 k level 5 – tedy od "po většinu času jezdí auto samo, ale občas potřebuje intervenci člověka" k "furt jezdí samo".

    A protože nikdo nikdy neschválí možnost, že by auto ovládal na dálku týpek ze support centra, tak dokud si nebude AI schopná poradit se vším, nebudou žádný autonomní auta.

    Level 4 je totiž pořád asistenční systém a žádná autonomie.

    Musk mluví o FSD, ale zároveň naznačuje, že tím vlastně myslí něco, co bude Level 3 nebo 4, čili Musk lže.
    OMNIHASH
    OMNIHASH --- ---
    BOBASH:1.) i redundatní failsafe systémy nejsou 100%.
    2.)99% čeho? Standardně se měří nehodovost počtem nehod na ujetou vzdálenost, a tam vede AI nad lidma už od vzniku týhle diskuze.
    3.)Projde to legislativně hnedka ve chvíli, kdy to začne tlačit dostatečně velkej počet zájmovejch skupin, a to bude tak pět minut po tom, co si spočítaj, že je to pro ně monetárně výhodný. Na dálku řídíme osmitunový nadzvukový drony s naváděnejma střelama, ale před autama se zastavíme, že by to mohlo bejt nebezpečný,tak určitě. Samozřejmě, pokud ind vyhodnotí, že je to nad jeho možnosti na dálku, vyšle nějakou místní tow crew.
    4.)udělá z principu věci daleko víc, než řidič v obdobný situaci, rmá nesrovnatelně rychlejší reakční čas a možnost kromě přemýšlení, co je to za UFO ještě v tý samý době řešit optimální brzdnou strategii s ohledem na minimalizaci pravděpodobnosti kolize.
    5.)ale povolí, stačí jeden stát, kterej to úspěšně spustí a do pár měsíců se přidá zbytek. V tom je taková potenciální úspora, že si to nenechá ujít žádnej podnik.
    BOBASH
    BOBASH --- ---
    DZODZO: Nepodstatný.

    Člověk se umí chovat jako kretén, AI ne, to víme všichni. Ale člověku se nestane, že bude čumět na bílej náklaďák a nebude vědět, co to je, nebo že zastaví (v lepším případě) uprostřed křižovatky a zavolá někomu, aby ho šel zachránit (teda jo, jednou mi jedna kámoška říkala, že se jí tohle jednou stalo).

    Co ale člověk umí a "AI" (protože to není skutečná, tedy general AI) neumí, je poradit si s nečekanou situací. Ty sice nenastávají denně, takže se ajťákovi srovnávajícímu to se statistikou spolehlivosti serverů může zdát, že to není problém, ale on to je problém. Když ti shoří disk v serveru tak (pokud nejsi dodavatel českýho státu co nezálohuje) prostě vyměníš disk, záloha to vyřeší, hotovo. Jeden disk ze sta, pohoda.

    Jenomže když ti jeden taxík z tisíce jednou za rok ježdění přejede jen jedno malý dítě, tak to můžeš celý zabalit.
    Kliknutím sem můžete změnit nastavení reklam