Google I/O: Die Keynote (Teil 1)
Keine Artikel mehr verpassen? Jetzt Newsletter abonnieren »
Level: Advanced, Beginner
Vor 2 Wochen hat die Google Entwicklerkonferenz Google I/O stattgefunden. Die Konferenz war für Menschen weltweit kostenlos zugänglich. Das beste daran: Auch nach der Konferenz sind die Keynotes, Workshops und Vorträge online frei verfügbar.
Wir haben sie uns angesehen und die (unserer Meinung nach) hilfreichsten und für Marketer:innen relevantesten Beiträge herausgesucht. Diese möchten wir dir heute und in den nächsten Wochen in einer Mini-Serie in unserem Newsletter vorstellen.
Mach dich gespannt auf folgende Themen:
• Teil 1: Google I/O Die Keynote
• Teil 2: Core Web Vitals Die neue Metrik INP
• Teil 3: Tutorial Google Maps mittels JavaScript zur Website hinzufügen
• Teil 4: Was ist eigentlich Angular?
• Teil 5: SEO What’s new @ Google Search
• Teil 6: Webanalyse Erreiche deine Businessziele mit GA4-Automatisierungen.
Teil 1: Google I/O Die Keynote
Google I/O startete mit einer 2-stündigen Keynote Präsentation, bei der Expertinnen und Experten von Google neue Features und Visionen vorgestellt haben. Besonders interessiert uns der Punkt „Knowledge and Search“, den der Senior Vice President von Google, Prabhakar Raghavan, vorstellte.
Google hat eine Vision: „Search reimaginated. Search any way and anywhere.“ (frei übersetzt: Suche neu gedacht. Suche wie und wo du willst).
Ausgangspunkt dieser Vision ist, dass sich die Art, wie Menschen suchen, nicht auf geschriebene Sprache beschränkt. Stattdessen suchen wir mit allen Sinnen. Beispielsweise wenn du beim Frühstück auf der Terrasse einen Vogel im Baum entdeckst, auf ihn zeigst und die anwesenden Personen fragst „Was ist das für ein Vogel?“. Dann hast du keine textbasierte Suche angewendet, sondern eine sprachliche und visuelle Suche.
👉🏼 Google Voice Search, also sprachgesteuerte Suche, ist bereits seit 10 Jahren möglich und wird immer mehr genutzt: Zuletzt wurden täglich hunderte Millionen von Voice-Search-Anfragen gestellt. Auch die Google Lens, also die bildbasierte Suche, kommt gut an: pro Monat gibt es über 8 Milliarden Suchen mittels Google Lens.
Diese Technologien funktionieren und daran möchte Google anknüpfen.
👉🏼 Seit letztem Monat steht in der Google App die sogenannte Multisearch zur Verfügung, welche die Bildersuche und die reguläre Suche verknüpft. Damit kannst du zum Beispiel ein Objekt mit der Kamera deines Smartphones scannen und gleichzeitig angeben, dass du das Objekt in einer anderen Farbe haben möchtest. Google spuckt dir dann entsprechende Produkte und/oder Seiten aus, wo du dieses Objekt in der angegebenen Farbe findest. Daneben sind natürlich unzählige weitere Use Cases denkbar.
👉🏼 Bald wird die Funktion Near Me gelaunched, die es dir erleichtern soll, Produkte und Dinge in deiner nahen Umgebung zu finden. Der Prabhakar Raghavan nennt als Beispiel die Suche nach einem Restaurant, welches ein spezifisches Gericht anbietet. In diesem Beispiel untersucht die Suchmaschine ein von dir bereitgestelltes Bild, auf dem ein unbekanntes Gericht zu sehen ist. Zunächst evaluiert Google auf Basis anderer, ähnlicher Bilder, um welches konkrete Gericht es sich handelt. Anschließend findest du mit der Near-Me-Funktion Restaurants in deiner Nähe, die dieses Gericht anbieten.
👉🏼 Die Funktion Scene Exploration geht noch einen Schritt weiter: Indem du deine Umgebung mit der Kamera scannst, erfasst Google dein Umfeld und gibt dir Informationen zu den Objekten, die sich dort befinden. Mit dieser Funktion schafft Google eine Augmented-Reality-Erfahrung.
Unser Fazit: Für uns als Marketer:innen bedeuten diese Entwicklungen und Innovationen vor allem eines: Wenn du im Markt bestehen und sichtbar bleiben möchtest, brauchst du Bilder. Und zwar gut optimierte Bilder mit Beschreibungen und Alt-Texten. Es muss zu jeder Zeit klar sein, was auf deinem Bild zu sehen ist und welchen Nutzen es im Kontext hat.
In der Keynote wurden abseits der Google Suche viele weitere Aspekte thematisiert. Wir haben sie dir hier kurz zusammengefasst:
- Repräsentation: Mit der Monk Skintone Scale möchte Google dafür sorgen, dass sich alle Menschen jeder Ethnie im Internet repräsentiert fühlen. Diese wird in verschiedenen Google-Produkten eingesetzt, um die Suchergebnisse diverser zu gestalten.
- Google Assistent: Es wird nicht mehr zwingend nötig sein, das bekannte „Hey Google“ vorne anzustellen, bevor du mit dem Assistenten sprichst. Stellst du Augenkontakt mit dem Device her, so kannst du deine Anfrage direkt stellen. Ähnlich wie bei einer echten, menschlichen Konversation, bei der man zuerst Augenkontakt aufbaut. Videos, die bei diesem Vorgang aufgezeichnet werden, bleiben ausschließlich auf dem Gerät und werden weder mit Google noch mit Dritten geteilt. Auch sogenannte Quick Phrases (Anfragen, die oft genutzt werden, wie einen Wecker stellen, nach der Zeit zu fragen, das Licht anschalten etc.) werden in Zukunft ohne das Buzzword „Hey Google“ nutzbar sein.
- Sicherheit: Google stellt klar, dass sie persönliche Informationen nicht an Dritte weitergeben oder Daten aus z. B. Gmail oder dem Google Drive für Werbezwecke nutzen.
- Google Maps: Der Kartendienst geht mit der Zeit. In USA und Kanada ist es bereits möglich, neben der schnellsten und der kürzesten Route auch die energieeffizienteste Route anzeigen zu lassen – also die, bei der du am meisten Sprit sparst. Ende dieses Jahres soll die Funktion auch in Europa kommen.
🔍 Die komplette Keynote sowie die Developer Keynote findest du direkt bei Google.
Wie hilfreich ist dieser Artikel für dich?
Noch ein Schritt, damit wir besser werden können: Bitte schreibe uns, was dir am Beitrag nicht gefallen hat.
Noch ein Schritt, damit wir besser werden können: Bitte schreibe uns, was dir am Beitrag nicht gefallen hat.
Vielen Dank für dein Feedback! Es hilft uns sehr weiter.
gar nicht hilfreich
weniger hilfreich
eher hilfreich
sehr hilfreich
ich habe ein anderes Thema gesucht