2026-03-02, 18:01
  #1
Medlem
Ramsviks avatar
Kan man genom att förstora och analysera bildpunkternes/pixlarnas inbördes mönster och strukturer i t ex en JPG-bild eller en MP4- eller AVI-video se om bilden är ai-konstruerad eller manipulerad?
Citera
2026-03-02, 18:07
  #2
Medlem
svampdamps avatar
Handlar det om människor eller djur så kolla antalet extremiteter. AI vill gärna lägga till extra fingrar och ben
Citera
2026-03-02, 18:39
  #3
Medlem
Nej du kan inte längre identifiera bilder genererade av ai.

Att människor får 6-7 fingrar sker bara på gamla ai modeller, och nyare modeller gör inte längre dessa misstag.

AI kan idag alltså skapa realistiska filmer, dvs rörliga karaktärer som är konsekventa.
Citera
2026-03-02, 20:19
  #4
Moderator
Arne.Ankas avatar
Finns websidor som du kan ladda upp bilder o filmer på som analyserar och sen ger ett uppskattat värde om det är ai eller inte.
Citera
2026-03-02, 21:44
  #5
Medlem
ögonlock blinkar inte på ai. kolla ögonen, plus fotspår etc brukar saknas.
Citera
2026-03-03, 01:37
  #6
Medlem
Citat:
Ursprungligen postat av svampdamp
Handlar det om människor eller djur så kolla antalet extremiteter. AI vill gärna lägga till extra fingrar och ben
Inte i 2026.
Citat:
Ursprungligen postat av Ramsvik
Kan man genom att förstora och analysera bildpunkternes/pixlarnas inbördes mönster och strukturer i t ex en JPG-bild eller en MP4- eller AVI-video se om bilden är ai-konstruerad eller manipulerad?
Det beror på. "Om du tar en bild direkt från många stora AI‑tjänster (som DALL·E, Midjourney eller vissa Google‑verktyg) och ingen har sparat om eller bearbetat den, finns det ganska stor chans att den innehåller någon form av ursprungsmarkering som går att hitta med specialverktyg. När bilden däremot har skärmdumpats, körts genom olika appar eller lagts upp på sociala plattformar som tar bort metadata eller komprimerar om filen, kan de här signalerna delvis eller helt försvinna, och då blir det mer ett forensiskt/ML‑problem än att bara “läsa av en vattenstämpel”.".
Citera
2026-03-03, 08:09
  #7
Medlem
dobbelinas avatar
Först var det lätt att se att det var fake, sen blev det svårare, nu är det i princip omöjligt om en senare modell använts.
Exempel: Will Smith äter spaghetti
Citera
2026-03-03, 12:52
  #8
Avstängd
Är väl bara lägga den i grok?
Citera
2026-03-03, 12:57
  #9
Medlem
Finns olika tekniker och program. Google har ju sitt egna SynthID.
Citera
2026-03-03, 13:29
  #10
Medlem
Citat:
Ursprungligen postat av svampdamp
Handlar det om människor eller djur så kolla antalet extremiteter. AI vill gärna lägga till extra fingrar och ben

Det var aktuellt för ca 1 år sedan. Mycket har hänt sen dess
Citera
2026-03-04, 18:07
  #11
Medlem
Ramsviks avatar
Citat:
Ursprungligen postat av ljusljud
Inte i 2026.

Det beror på. "Om du tar en bild direkt från många stora AI‑tjänster (som DALL·E, Midjourney eller vissa Google‑verktyg) och ingen har sparat om eller bearbetat den, finns det ganska stor chans att den innehåller någon form av ursprungsmarkering som går att hitta med specialverktyg. När bilden däremot har skärmdumpats, körts genom olika appar eller lagts upp på sociala plattformar som tar bort metadata eller komprimerar om filen, kan de här signalerna delvis eller helt försvinna, och då blir det mer ett forensiskt/ML‑problem än att bara “läsa av en vattenstämpel”.".

Tack, intressant!
Citera
Igår, 00:21
  #12
Medlem
Citat:
Ursprungligen postat av dobbelina
Först var det lätt att se att det var fake, sen blev det svårare, nu är det i princip omöjligt om en senare modell använts.
Exempel: Will Smith äter spaghetti


Vad menar du? Det där är så extremt uppenbart AI-skräp att det är pinsamt. Det är fortfarande ganska lätt att upptäcka AI-skräp.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in