Larry Page na Google I/O 2013

Google I/O, największe coroczne wydarzenie firmy z Mountain View, przyniosło 3 dni wypełnione prezentacjami przeznaczonymi dla developerów i entuzjastów nowych technologii. Zaprezentowanie zarysu nowości zajęło 3 godziny wprowadzającej prezentacji. Po niej, nieplanowo, pojawił się na scenie z nieco filozoficznym wystąpieniem Larry Page. Prezes Googla perorował zachrypłym, głosem o misji, przyszłości i globalnej edukacji; na tle obracającej się Ziemi odkrywającą miejscami tło drogi mlecznej.

"OK Google"

Najważnieszy ficzer Google: wyszukiwanie, zostało wzbogacone o nowe funkcje komunikacji głosowej. Dzięki Voice Search, możemy rozpocząć wyszukiwanie głosowe komendą "OK Google" zamiast naciskania przycisku.

Wyszukiwanie zaczyna przypominać konwersację, gdy zaczniemy wykorzystywać kontekst, np. "Jak daleko to jest [ode mnie]? ", "Jak możemy tam spędzić czas?" [jeśli Google wie, że mam dwójkę dzieci w wieku przedszkolnym] itd.

Straszność tej usługi polega na tym, że raz instalując i zgadzając się by aplikacja używała mikrofonu bez przycisku, pozwalamy, by technicznie Google mógł nas podsłuchiwać w dowolnej chwili! Okrągła czerwona ikona mikrofonu niepokojąco przypomina mi niosące zagładę oko sztucznej inteligencji z filmu Animatrix.

Wypierz zdjęcia

Zaskoczeniem nie było mocne postawienie na rozwój społecznościowego Google Plus. Wśród nowości ciekawie prezentował się nowy zestaw filtrów automatycznie poprawiających jakość zdjęć ("auto awesome") oraz automat, który wybierze za nas kilkanaście zdjęć z kilkuset zrobionych na wakacjach. Automatyczny wybór bierze pod uwagę jakość zdjęć, rozpoznaje twarze (i uśmiechy), kompozycje obrazu oraz wiedzę na temat obiektów na fotografii. Wybierze zdjęcia, na których obecne są najważniesze wg googla dla nas osoby na podstawie wiedzy jaką o nas zebrał.

Technologiczne tłuste kiełbasy

PHP na App Engine

Technicznym numer jeden jest, moim zdaniem, oficjalne ogłoszenie wsparcia PHP na platformie Google App Engine.

Ruch giganta z Redmont otwiera przed programistami, posługującymi się najpopularniejszym językiem skryptowym, dostęp do dobrze skalującego się środowiska serwerowego. Google App Engine zoptymalizowany jest pod kątem budowania back-endu dla Androida. Teraz usługi w chmurze, składające się na aplikacje mogą być komponowane jednocześnie w kodzie PHP, Java i Python.

Klasyczne aplikacje PHP działające na bazach MySQL będą tutaj potrzebować instancji Cloud SQL. Największy potencjał wydajności projektanci osiągną jednak wykorzystując usług ze stosu GAE, co wymaga programowania specjalnie na tę platformę. Niestety, w tej chwili w specyfikacji brak dedykowanego API PHP do NoSQL'owego składu danych App Engine Datastore. Pozostaje jedynie dostęp do Google Cloud Datastore via HTTP / JSON.

Android Studio

Z konferencji dla developerów Android wyszło nowe środowisko programistyczne oparte o IntelliJ Community Ed. Dostępne bezpłatnie, w wersji 0.1, wygląda całkiem solidnie.

Internet rzeczy, świat sensorów, web 3.0

Przedstawiony rok wcześniej Knowledge Graph, wprowadził elementy Semantic Web do wyników wyszukiwania. W tym roku dostaliśmy prezentację widgetów jquery i sposobu konstruowania zapytań do semantycznej bazy Freebase na której bazuje Knowledge Graph.

Wśród nowych API dla Androida moją uwagę zwrócił, (obok Fuse Location Provider), Activity Recognition, który pozwala aplikacją na telefonie rozpoznać czy właściciel w danym momencie porusza się pieszo, rowerem, autem lub siedzi / zmienia aktywność. API wnioskuje o aktywności, używając heurystyk bazujących na danych zebranych z sensorów telefonu (GPS, żyroskop, kompas, przyspieszeniomierz itd.). Takie możliwości wnioskowania na podstawie danych zbieranych historycznie oraz w czasie rzeczywistym, z sensorów, które nosimy przy sobie oraz umieszczanych w otoczeniu, dają sygnał: "coraz łatwiej pozyskać wiedzę o Tobie, Twojej przeszłości i prawdopodobnej przyszłości".


Podobne wpisy


blog comments powered by Disqus