• letraset@feddit.dkOP
    link
    fedilink
    dansk
    arrow-up
    2
    ·
    7 months ago

    Sammenfatning af ChatGPT:

    • Takket være den stigende popularitet af generativ kunstig intelligens er programmer, der kan producere tekst, computerkode, billeder og musik, nu almindeligt tilgængelige. Men som AI-udviklere udnytter internettet til at træne nye modeller, risikerer de at indføre fejl, der kan akkumulere over tid og forringe modellernes ydeevne. Dette fænomen, kaldet “modelkollaps,” er blevet observeret i flere AI-modeller og kan true mangfoldigheden og pålideligheden af ​​deres output. For at modvirke dette presserende problem kræver det måske en omhyggelig kuratering af træningsdata og en indsats for at beskytte modellernes eksisterende bias.
    • farsinuce@feddit.dk
      link
      fedilink
      arrow-up
      3
      ·
      7 months ago

      En løsning kan være at fabrikere syntetisk data, har jeg læst. Men ved ikke, hvor realistisk det er for LLMs.

      • letraset@feddit.dkOP
        link
        fedilink
        arrow-up
        2
        ·
        6 months ago

        Fabrikere syntetisk data? Det er vel også LLM fabrikeret, eller hvordan? Er ikke helt sikker på at jeg forstår (: