Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied

Google hat eine Menge an KI also sicher ist die Methode nicht.
Eine eindeutige Antwort heißt allerdings nicht, dass es auch die richtige Antwort ist.

Google dürfte bei KI-Inhalten das kleinste Problem sein, sondern eher das Abmahnrisiko.KI-Inhalte 2025: Die wichtigsten Kennzeichnungspflichten für KI-generierte Texte und Bilder
Bestimmte KI-generierte Inhalte müssen ab 2. August 2026 eindeutig als solche gekennzeichnet werden. Wir erläutern in diesem Beitrag, um welche konkreten Inhalte es geht, wie die Kennzeichnung zur erfolgen hat und wie hiervon der Online-Handel betroffen ist.
. . .
Wer mittels KI generierte Bild-, Ton- und Videoinhalte einsetzt, sollte im Zweifelsfall zur Vermeidung von rechtlichen Risiken eher davon ausgehen, dass diese als Deepfakes angesehen werden und diese daher als KI-generierten Inhalt kennzeichnen.
Quelle: https://www.it-recht-kanzlei.de/kennzei ... ibung.html
Lol, nein tut es nicht. Google Lens zeigt dir bestenfalls ähnliche Bilder zuverlässig an. Es gibt sehr viele Beispiele wo ki einfach unsinn macht oder komplett falsch liegt, und dabei trotzdem extrem selbstsicher und überzeugt klingt.

Nach der von mir verlinkten Seite könnten solche Produktbilder Deepfakes sein, siehe
Also Vorsicht auch bei Produktbildern, wenn die KI im Spiel ist.Als Deepfakes einzustufen wären z.B. die folgenden KI-generierten Inhalte:
- Fotoartige Produktbilder, auf denen ein Produkt in einer Landschaft zu sehen ist, wobei das Produkt tatsächlich nicht in der Landschaft fotografiert worden ist.
- Die Abbildung eines Produkts zusammen mit einer Person, die mit dem Produkt hantiert, obwohl diese Person zwar existiert, mit dem Produkt aber niemals hantiert hat.
- Die Darstellung eines Fahrzeugs eines bestimmten Fabrikats in einem Video, das durch eine computergenerierte Eislandschaft fährt, obwohl diese Fahrt so nie stattgefunden hat, dieses Fahrzeug also niemals durch diese Landschaft gefahren ist.