Hirdetés

Hirdetés

Új hozzászólás Aktív témák

  • Sisco2

    tag

    válasz OPiiPO #1259 üzenetére

    Nagyon durva hova vezet ez..

    Most csak az egyik dolog ami a cikk kapcsán eszembe jutott:
    "A ChatGPT-t és hasonló intelligenciákat ezért ún. RLHF-fel (Reinforcement Learning with Human Feedback), azaz emberi visszajelzéssel történő megerősítő tanulás módszerével fejlesztik. Ez nagyjából azt jelenti, hogy ha az AI rosszul „viselkedik”, a programozók a kezére csapnak, hogy tanuljon a tiltásból. A gond Harrisék szerint az, hogy a fejlesztők sem képesek minden pillanatban monitorozni az AI folyamatait. És mit csinál egy 9 éves, ha büntetést kap tőled, amikor nem viselkedik? Amint elhagyod a szobát, újra a saját feje után megy."

    A gond itt kezdődik, mert ha tul sokszor és tul nagyot csapsz a 9 évesre (vagy az AI-ra) akkor ezt a viselkedés formát is eltanulja, és ha felnő ő is tud majd nagyot csapni sokszor..
    AI pedig majd elég hatékonyan, és elérkeztünk ahhoz a témakörhöz hogy milyen (blokklánc vagy akármilyen) biztonsági rendszereket képes az ember beépíteni a core kódba amit az AI majd nem képes megkerülni ha akar. :)

    Belecsaptunk a lecsóba ;] ez már elég messzire vezet, én itt meg is állnék. :)

Új hozzászólás Aktív témák