Pokemon Go – ein Google Ableger sammelt Daten

Hacker und BeamtePokemon Go scheint der neue Renner bei Online Spielen zu werden. Interessant ist dabei, dass sich der Besitzer eines bekannten Spiels, eine Marke in der Industrie, mit einem Ableger von Google, Niantic zusammengetan hat. Wesentlicher Bestandteil von Pokemon Go ist die Verknüpfung der Realwelt (das kommt von Google) und der virtuellen Spielwelt von Nintendo. Pokeman Go nutzt auch die Geo-Software und die Cloud Infrastruktur von Google. Nintendo hat weder die Software Entwickler noch die Fähigkeit eine Infrastruktur für Millionen von Spielern aufzubauen.

Lädt man sich Pokemon Go auf sein Smartphone  und meldet man sich mit seinem Google Konto an, dann gewährt man Pokemon Go Zugriff auf alle persönlichen Google Daten. Für die Spielentwickler macht das durchaus Sinn, da sie dann das Spiel besser personalisieren können z.B. die Abstimmung mit „Freunden“ und Lokationen.

Sehr schnell wird man in unseren Städten ähnlich wie in Australien und USA Pokemon Go Freaks mit gesenktem Blick aufs Smartphone durch unsere Städte laufen sehen, die Google ihren jeweiligen Aufenthaltsort und Fotos ihrer Umgebung schicken. Da muß Google keine Streetview Autos mehr durch die Städte schicken. Die Pokemon Go Kunden liefern diese Daten freiwillig an Google. Nun muß man sich an dieser Aktion ja nicht beteiligen. Unfreiwillig wird man als Passant aber von den vielen Pokemonisten auf ihren Fotos erfaßt. (Kleiner Google Tip: „So schaltet ihr in Deutschland die Gesichtserkennung frei“). Man braucht sich aber keine Sorgen machen – es gibt ja ein neues Abkommen mit USA, das die Weitergabe von Daten von EU Bürgern an die NSA und US Firmen regelt. Über die direkte Erfassung von Daten durch US Firmen, bei denen die EU Bürger freiwillig mitmachen, wird in dem neuen Abkommen natürlich nichts ausgesagt. Im Save Harbour sind die Daten ja sicher – für Schiffe, die unterwegs sind, gilt das natürlich nicht. Daran haben unsere Digital Naiven in den Parlamenten und den Behörden noch nicht gedacht! Pokemon Go ist ein schönes Beispiel wie mit einem Internet Basis Service eine „alte“ Industrie, im Beispiel Computerspiele, übernehmen kann. Die Kandidaten, die selbst keine Geotechnologie haben und sich Google in die Arme werfen wollen, stehen schon Schlange.

Pokemon Go braucht die Geodaten der Kunden um interessante Orte für das Spiel zu erkennen und dann in das Spiel einzubauen. Damit wird Pokemon Go zu einer wichtigen Datenquelle ein Versuchsfeld für Systeme zur Optimierung von Orts- und Personenbezogenen Daten. Die Konkurrenz kann damit immer weniger mithalten.

Ich seh die Welt mit deinen Augen – Live Video Streaming mit Periscope

PeriscopeDie „Intellektuellen“ Deutschlands haben inzwischen auch bemerkt, daß Informationen im Internet genau wie im echten Leben gefiltert und auch auf den Empfänger zugeschnitten werden. Genau das haben Privatpersonen, Pfarrer, Büttel mit der Glocke, Bücher, Zeitung, Radio, Fernsehen und andere Medien seit Urzeiten gemacht. Auch zur Zeit der Druckmedien war es  ein Unterschied ob man seine Informationen zur Politik über die FAZ oder die TAZ Kanal erhält. Es gibt deshalb eigentlich keinen Grund zur Aufregung. Allerdings sollte man sich mit den grundsätzlichen Mechanismen der Kommunikation im Internet vertraut machen. Auch im Internet gilt „Wer nicht fragt bleibt dumm“ – man sollte also die gängigen Techniken kennen, wie man gezielte Informationsverbreitung und Informationsfilter beurteilen und man sich eigene Kanäle  schaffen kann. Wer sich nur auf die Suche im Internet mit Google und auf Informationen im öffentliche Fernsehen verläßt,  sollte sich nicht beklagen.

Für das Internet werden laufend neue Kommunkationsmethoden entwickelt (Twitter, Facebook, Instagram, WhatsApp usw), die sich meist sehr schnell verbreiten aber auch meist sehr schnell wieder verschwinden. Die verschiedenen Technologien schaffen auch ihre Protagonisten wie das „Twitter-Spätzchen“, die „WhatsApp-Tratschtante“ und den „Facebook-Liker“. Facebook ändert gerade seinen Filtermechanismus. Informationen, die von Freunden und Verwandten empfangen und/oder bewertet wurden, werde bevorzugt angezeigt. Offensichtlich hat der Facebook eigene Filtermechanismus, der z.B. zahlende Kunden bevorzugt, nicht zur Zufriedenheit der Facebook Freunde funktioniert.

Die Technologie Live Video Streaming kommt langsam aus der Nerdzone heraus und in der Öffentlichkeit an. Interessant wird es, wenn man die anfallenden Daten über öffentliche WLAN Spots auch übertragen kann. Der US Startup Periscope bietet APPs für iOS und Android an mit denen man die Welt aus den Augen eines anderen betrachten kann. Speziell für Politiker ist das ein hervorragendes Werkzeug um Transparenz zu zeigen indem man Diskussionen im Parlament über private Kanäle und nicht über extern kontrollierte Medien überträgt (Beispiel: US Senat – Republikaner schalten den Demokraten den offiziellen Fernsehkanal ab!)

Damit sind  wohl demnächst auch die Zeiten vorbei, in denen die UEFA die Bilder von Fußballspielen kontrollieren und manipulieren konnte.

Die schlechte Nachricht: TWITTER hat bereits 2015 den StartUp Periscope für 86 Millionen $ gekauft.

Katastrophenwarnung KATWARN – warum nicht mit sozialem Meldernetz

Stahltür-Überschwemmung

Stahltür bei Überschwemmung ausgeschwemmt

Im Jahr 2008 gab es in Hechingen eine lokale Überschwemmung durch Starkregen mit 3 Toten. Näheres über Ursachen und Auswirkungen sowie Tipps für Hochwassergeschädigte findet man im Hohenzollern Hochwasser Blog. Die Situation war ähnlich wie bei den vom Tief Elvira verursachten Hochwasserschäden am 29.5.2016. Beim Hochwasser 2008 wurde das Haus meiner Schwiegermutter von der Überschwemmung verwüstet. Es hat viel Arbeit, Geld und mehrere Monate Zeit gekostet, um das Haus zu sanieren. Typisch war, dass schon eine Stunde vor Eintreffen der Flutwelle am Oberlauf des Flusses Überschwemmungen auftraten. Das ist typisch für Überschwemmungen durch Starkregen. Das Wasser am Oberlauf eines Baches oder Flusses steigt mindestens 30 Minuten vor Erreichen der größeren Orte stark an.  Es wäre also genug Zeit gewesen die Anlieger am Unterlauf des Flusses zu warnen. Es gab aber kein effizientes von den Behörden organisiertes Warnsystem. Als Lösung, die auch exemplarisch implementiert wurde,  habe ich ein Internet Warnsystem vorgeschlagen mit dem sich Bürger in einem sozialen Netz gegenseitig warnen können. Freiwillige Hochwasser Melder können bedrohliche Wasserstände rechtzeitig melden und Betroffene können über Smartphone oder Telefon gewarnt werden. Das System Hohenzollern Hochwasser Warnung wurde  beim AAL Kongress 2008 in Berlin vorgestellt.

Nach einigen Diskussionen hat das Fraunhofer Institut diese Idee aufgegriffen und mit Unterstützung der deutschen Versicherungswirtschaft das System KATWARN aufgebaut, das die Bürger vor Überschwemmungen und anderen Katastrophen warnen kann.

Einige Gemeinden u.a. Böblingen setzen dieses System inzwischen ein – Beispiel Meldungen gibt es z.B. auf YOUTUBE man weiß allerdings nicht was da aktuell ist und was Werbung. Man sollte sich die APP KATWARN für iPhone oder Android auf das Smartphone laden.  Dort kann man mehrere Orte definieren für die man Warnungen erhalten möchte. Gestern  habe ich z.B. eine Warnung vor dem Tief ELVIRA erhalten. Allerdings hat das System gegenüber dem vor 8 Jahren vorgeschlagenen System ein entscheidende Schwäche.

Das Meldesystem mit freiwilligen Helfern wurde nicht implementiert. Es werden nur „offizielle Nachrichten“ z.B. vom Deutschen Wetterdienst oder den Landratsämtern verbreitet. Auch die ARD kann keine Warnungen für lokale Gefahrenlagen aussenden, wenn es die gar nicht kennt (siehe „ARD wehrt sich gegen Kachelmann-Kritik“). Eine allgemeine Warnung „Heftige Niederschläge in Baden-Württemberg“ nimmt man nicht ernst, da man aus Erfahrung weiß, daß man in den meisten Fällen nicht selbst betroffen ist. Auch kann man aus der Menge des lokalen Niederschlags nicht eindeutig auf eine Gefahrenlage schließen. Die Gefahrenlage können die Menschen vor Ort aber schon mit einem Blick aus dem Fenster feststellen.

Unsere Behörden haben aber offensichtlich eine Sperre die Bevölkerung in ihre Prozesse einzubinden – man möchte alles von „Oben“ organisieren – das ging bei ELVIRA mal wieder schief. (In Baden-Württemberg gibt es zwar eine Beauftragte für Bürgerbeteiligung, die aber nicht sehr Technik affin ist). Die gute Nachricht – das System KATWARN ist eine gute Basis für die Katastrophenwarnung und kann leicht durch ein soziales Netzwerk erweitert und funktionsfähig gemacht werden. Mal sehen ob es wieder 8 Jahre dauert bis die Idee umgesetzt wird.

PS Die Mär vom Jahrhundertwasser: in Hechingen gab es nach dem „Jahrhunderthochwasser 2008“ bereits im Jahr 2011 wieder ein „Jahrhunderthochwasser“ mit ähnlich starken Regenfällen. Passiert ist dabei aber nichts weil Stadt und Land inzwischen Flußlauf und Kanalisation sauber halten.

 

Guter Kunde – schlechter Preis bei Amazon

Euro Bild Viele Kunden (und unsere Politiker) glauben noch daran, daß das Internet ein homogener, transparenter Markt ist und daß sie bei Bestellungen im Internet auch den besten Preis erhalten. Ganz Vorsichtige verlassen sich auf Vergleichsportale oder kaufen erst dann, wenn das gewünschte Produkt billiger wird und fallen dann auf den „Price Alert“ herein..

Tatsache ist aber, daß im Internet ähnliche Roßtäuscher Verfahren angewendet werden wie sie auf Märkten in aller Welt seit Jahrtausenden angewendet werden.

Ein kleine Beispiel: Zum Geburtstag wünscht sich das Patenkind einen bestimmten Bausatz von Lego. Meine Frau findet auch schnell mit Google mehrere Anbieter und bittet mich den Bausatz zum „Bestpreis“ beim günstigsten Anbieter zu bestellen. Zu meiner Verblüffung stelle ich fest, daß mein  „Bestpreis“ etwa 10% höher ist. Nun könnte das Teil ja in der Zwischenzeit teurer geworden sein. Eine schnelle Prüfung vom Smartphone meiner Frau zeigt aber, das ihr „Bestpreis“ noch immer niedriger ist.

Eine simple Erklärung für dieses Phänomen. Meine Frau bestellt über ihr Smartphone grundsätzlich nichts im Internet. Bestellungen laufen über den PC der Familie über einen speziellen User ID. Damit behält man den Überblick wer wann, wo, was bestellt hat. Amazon weiß nun, daß dieser Kunde regelmäßig im Internet bestellt. Anstatt nun diesem Kunden mit einem guten Preis zu belohnen wird versucht, bei ihm einen höheren Preis zu verlangen. Bei Neukunden möchte man aber die Kunden mit einem guten „Bestpreis“ locken.

Solche Anbieter-Strategien werden nicht nur beim Verkauf von Produkten, sondern auch bei Informationen im Internet, der Suche mit Suchmaschinen usw angewandt. Verhindern kann man das nicht. Man sollte sich aber bewußt sein, daß vieles was man im Web sieht mehr oder weniger geschickt platziert wird. Ernsthafte Journalisten sollten sich mehrere Identitäten mit verschiedenen Profilen zulegen wenn sie den Verdacht haben, daß Inhalte sehr stark für Zielgruppen manipuliert werden.

PS Den Lego-Bausatz haben wir letzendlich beim Spielwarendiscounter um die Ecke gekauft. Dort war der Bausatz sofort verfügbar und 10% billiger als der „Bestpreis“ im Internet.

Geo-Sperren und Info-Filter umgehen

Video nt availableGreift man von Deutschland aus auf Internet Dienste im Ausland zu, z.B. weil man eine Sendung im öffentlichen Fernsehen eines anderen EU Landes ansehen möchte, so wird man häufig blockiert. Meist liegt es daran, dass die öffentlich rechtlichen Sender gespart haben und nicht die Rechte für die gesamte EU von den Autoren eingekauft haben. Läuft im Hintergrund einer Sendung irgendein Musikstück, speziell aus USA, wird es rechtlich meist so kompliziert, dass selbst Gutwillige aufgeben. Das Versagen unserer Europa Politiker bei der Schaffung eines gemeinsamen Internet-Rechts wird da offensichtlich. Dabei wäre das eine sinnvolle Spielwiese für unsere Politiker, weil es da nicht viel lokales Recht in den EU Staaten gibt.

Technisch kann man GEO-Sperren umgehen, indem man über einen Vermittlungs-Server zugreift, der im Zielland steht, z.B.über DNS Server oder ein VPN z.B. TunnelBear.

TunnelBear CtrlDer VPN Service von TunnelBear ist sehr benutzerfreundlich – TunnelBear gibt es als APP für den PC, iPhone und Android. Nach der Installation wählt man einfach das Land aus, von dem man auf den Zielserver zugreifen möchte, und stellt den Schalter aus ON. Der TunnelBear Service wird von einer kanadischen Firma angeboten, die Server in allen gängigen Ländern hat. 500 MB Daten/Monat sind frei – das reicht für übliche Webanwendungen aus. Will man allerdings Netflix oder, US Video Sendungen ohne Limit streamen kostet das 42 $/Jahr.

GeoLoc-USADer Server sieht dann einen Benutzer, der über eine IP Adresse aus USA zugreift. Nun kann man Benutzer im Internet nicht nur an der IP Adresse identifizieren (Was verrät meine IP Adresse und meine Hardware). Sucht man z.B. mit Google über die US IP Adresse wird man ähnliche Ergebnisse angezeigt bekommen, wie wenn man von Deutschland aus zugreift. Will man aber wissen was der Standard-Amerikaner von Google serviert bekommt wenn er „Donald Trump gun“ eingibt, sollte man zunächst Englisch als Sprache im Browser und in Google einstellen und Logout bei Google machen. Ich verwende für den Zugriff über Tunnel Bear nicht meinen Standard Browser Firefox, sondern den Microsoft Edge Browser und die BING Siuchmaschine, die z.B. für USA eingerichtet sind. Verwendet man eine spezielle Suchmaschine wie z.B. DuckDuck Go, so wird unter der Decke Google aufgerufen und man hat wieder alle Google Info Filter.

Die Lokation des Benutzers kann man natürlich ganz einfach über die GPS Daten erhalten. Auf dem Handy sollte man deshalb die Ortungsdienste ausschalten oder sperren. Auch die emulierten Ortungsdienste auf dem PC und WLAN sollte man ausschalten. Beim Microsoft Edge Browser gibt es ein Lokation Feld im Browser – das sollte möglichst nicht auf Berlin stehen, wenn man in USA recherchiert. Netflix benutzt z.B. fast alle Tricks um den tatsächlichen Aufenthaltsort des Benutzers herauszubekommen. Google warnt sogar wenn man von einer ungewöhnlichen Lokation zugreift. Das ist gut gemeint um die Benutzer vor Hackerangriffen zu schützen. Da Hacker aber natürlich auch VPN kennen, ist das kein wirklicher Schutz.

Security Pakete wie z.B. Norton AntiVirus zeigen TunnelBear als riskante Verbindung an. Das ist auch richtig weil VPN Netzwerke natürlich auch für Hacking ideal sind. Man muss die Verbindung separat freischalten. Grundsätzlich sollte man das VPN Netzwerk nur während der Zeit einschalten in der es bewußt benutzt wird.

Die Nutzung von VPN Netzwerken wird durch staatliche rechtliche Regelungen aber auch AGBs der Anbieter eingeschränkt. Die Rechtslage ist in der Regel aber äusserst unklar – das kann z.B. in USA sehr teuer kommen. Interessant ist die Nutzung eines VPNs (das machen alle großen Firmen), wenn man die unterschiedlichen rechtlichen Regelungen für den Internetverkehr umgehen will. So darf die NSA z.B. Datenverkehr aus dem Ausland beliebig abgreifen, während man innerhalb des US Netzes zumindest einen gewissen formalen Schutz genießt.

Für im Ausland tätige Firmen ist es wichtig, das Bild der Firma wie es ein ausländischer Kunde in seinem Land sieht, regelmäßig zu kontrollieren. Im schlimmsten Fall wird die Firmeninformation von Google total gefiltert. Dann hat man wohl für Google Anzeigen zu wenig bezahlt.

Cloud Sklave werden – bei Apple, Google oder Microsoft

Blue Cloud SkyZurück zur Steinzeit der IT ist der neueste Trend bei den großen Anbietern. Anstatt Anwendungen auf dem lokalen Gerät auszuführen, sollen jetzt Daten und Anwendungen auf zentralen Servern im Web laufen. Ältere IT Hasen erinnern sich noch an die Zeiten als sie ihre Programme in Form von Lochkarten zum Zentralrechner bringen mussten (noch heute bringt man z.B. große Mengen von Daten per Festplatte zum Hochleistungsrechenzentrum in Stuttgart). Einen wesentlichen Fortschritt brachten dann in den 70er Jahren die IBM /370 Systeme, die mit standardisierten Terminals und einem Browser (3270 Architektur) über Coax- und Telefonleitungen bedient werden konnten.

Die Benutzer waren die Sklaven des Rechenzentrums – was die RZ Leitung als Programm nicht anbieten wollte, gab es einfach nicht. Die Programmierer erfanden deshalb die Virtuelle Maschinen, die man auf den Maschinen des Rechenzentrums installieren konnte. Dort konnte man eigene Programme installieren und über die Netzwerke Freunden in der ganzen Welt zur Nutzung zur Verfügung stellen. Diese Technologie war sehr teuer – ein Programmierarbeitsplatz kostete damals etwa 100 k$ (gute alte!). Das gemeine Volk konnte sich das natürlich nicht leisten. Oft fand man in den Büros noch Terminals für zwei Mitarbeiter die man drehen konnte und um die man kämpfen musste. Der Vorteil dieser Systeme war die große Stabilität. An den Terminals konnte man nichts verändern vor allem keine Programme laden.

Mit der Einführung des IBM Personal Cumputers in den 80er Jahren kam die große Freiheit für die IT Nutzer. Jeder konnte nun Programme seiner Wahl installieren, standardisierte I/O Geräte anschließen und den PC auch zum Kunden oder nach Hause mitnehmen. Am Anfang waren das noch Ziehkoffer (Schlepptop), die dann zu Laptops und Smartphones mutierten. Die Programmentwickler hatten eine einheitliche Plattform und Zugriff auf eine Vielzahl externer Geräte mit standardisierten Schnittstellen und schufen zahllose Programme für die Anwender. Die große Freiheit führte auch ins Chaos. Programme und Daten waren zunehmend nicht kompatibel und auch nicht austauschbar. Mit der Einführung des Internets und des Webbrowsers in den 90er Jahren sollte wieder Ordnung geschaffen und wieder eine ähnliche Infrastruktur wie zu /370 Zeiten hergestellt werden. Auf Millionen von Servern wurde über mehr oder weniger einheitliche Browser zugegriffen.

Die Personal Computer der Benutzer wurden zu komplexen Rechenzentren mit vielen inkompatiblen Programmen, häufigen Updates, Angriffen mit Viren, Trojanern und Fehlern in  schlecht programmierten Anwendungen. Die Benutzer sind mit der Bedienung und Wartung ihrer Personal Computer überfordert und wollen nicht einen Großteil ihrer Zeit mit der Wartung ihrer Geräte verbringen. Da liegt es nahe zum bewährten /370 System Modell zurück zu gehen. Die Anwendungen laufen auf vielen virtuellen Maschinen in der CLOUD – man braucht eigentlich nur noch einen standardisierten Browser auf dem eigen PC, PAD oder Smartphone und natürlich schnelle Datenübertragung z.B. über Glasfaser Netze.

Hierfür braucht man aber wieder große Rechenzentren in denen die Anwendungen in Millionen von virtuellen Servern laufen. Dafür benötigt man viel Geld, spezielles Knowhow, globale Infrastrukturen und auch Einfluss auf die Politik und Behörden in vielen Ländern.

Im Moment gibt es eigentlich nur die drei Firmen Apple, Google und Microsoft, die auf diesem globalen Markt (ohne China) agieren können. Alle drei Firmen versuchen ihre proprietären Standards auf den Märkten durchzusetzen. Die Benutzer müssen sich jetzt entscheiden, wem sie sich anvertrauen und wem sie in Zukunft ihr Geld für die Cloud Services geben wollen. Die großen 3 ? haben alle das Ziel mehr Geld von den Kunden zu kassieren und den Cloud IT Markt zu dominieren. Dabei verfolgen sie unterschiedliche Strategien.

  • APPLE baut auf Innovation bei den Endgeräten, leichte Bedienbarkeit von Hardware und Software und ein Netz von unabhängigen Anwendungsentwicklern. Mit hohen Preisen für die Hardware versucht man das Geld für die Investitionen in die Cloud Infrastruktur zu verdienen. Bei Unternehmen tut sich Apple aber sehr schwer. Apple hat aber genug Geld in der Kriegskasse um die Cloud Investitionen zu stemmen. Es gibt allerdings einen ziemlichen Engpass bei internen und externen Entwicklern. Skill kann man nicht so einfach kaufen. Apple möchte Premium Cloud Anbieter werden, der hohe Preise für seine Produkte verlangen kann.
  • MICROSOFT hat zu lange auf traditionelle WINDOWS Software auf PCs und Servern gesetzt und versucht jetzt bei Cloud aufzuholen. Die Stärke von Microsoft ist die große installierte Windows Software Basis bei Endverbrauchern und Unternehmen. Microsoft kann wohl langfristig keine eigene mobile Hardware erfolgreich anbieten und ist ähnlich wie heute bei PCs und Servern auf externe Partner angewiesen. Da werden wohl ähnliche Probleme wie heute bei PCs auftreten. Microsoft hat aber genügend Verbraucher und Unternehmen auf den Microsoft Pfad verführt, die zumindest kurzfristig mit ihren Kernanwendern nicht zu anderen Cloud Anbietern wechseln können. Microsoft hat eine große Mannschaft von internen und externen Entwicklern und viel (auch leidvolle) Erfahrung im Management von großen Client/Server Netzen. Microsoft wird auf große Stückzahlen bei gehobenen Preisen für den Cloud Service setzen. Da Unternehmen ein wesentlicher Markt für Microsoft sind, wird wohl weiterhin Wert auf langfristige Stabilität und Kompatibilität gelegt.
  • GOOGLE hat eigentlich nur die Such- und Werbungstechnologie als eigene Technologie Basis. Ein wesentliches Asset ist aber das Android Betriebssystem für die Anbieter von billiger Hardware. Ähnlich wie die Google Anwendungen wurde Android aber schnell u.a. mit viel Open Source Code gestrickt. Das sorgfältige Management eines komplexen Systems mit vielen Hardware- und Softwarelieferanten ist sicher nicht eine Stärke von Google. Benutzer müssen damit rechnen, dass Google viele Anwendungen einführt aber bei Mißerfolg sofort einstellt. Google zielt mit seiner Cloud Strategie auf billige, kurzlebige Produkte, die in hoher Stückzahl verkauft werden.

Mit Einführung der Cloud Services ändert sich auch das Business Modell der Anbieter. Bisher konnte man durch Verkauf von Software mit relativ wenig Einsatz von Kapital hohe Gewinne einstreichen – Software Entwickler kosten ja nicht viel! Für den Aufbau der Cloud Infrastruktur braucht man aber viel Geld für Rechenzentren, Service und schnelle Netze. Ein Teil der Hardware, die bisher der Benutzer eingekauft hat, ist jetzt beim Cloud Service Provider.  Die Gewinnmargen werden also sinken und müssen durch größere Umsätze aus den Service-Einnahmen kompensiert werden. Bei einem solchen Umbau sind schon einige große IT Firmen gescheitert.

Private IT Benutzer werden sich je nach Anforderungsprofil einem der drei Cloud Anbieter anschließen müssen. Typische Benutzer werden wohl ausgehend von einem Windows PC mit I/O Geräten (in Zukunft werden es wohl mehr) verschiedene Cloud Dienste andocken. Schon in der Familie wird man mit verschiedenen Endgeräten arbeiten, weil die Familienmitgieder meist in unterschiedlichen Gruppen agieren. Für Benutzer mit wenigen Standardanwendungen kann es vorteilhaft sein, schnell in die Cloud zu migrieren.

Spätestens wenn Microsoft das Geld für das bisher verschenkte  WINDOWS 10 kassieren möchte, wird es Zeit zu handeln.

Meine persönliche Strategie ist es den Umzug meiner IT in die A-G-M Cloud hinauszuzögern. Für professionelle Zwecke verwende ich schon seit Jahren eine private Cloud (PrivatPortal – Micorsoft Sharepoint gehosted in der Schweiz). Für den Datenaustausch in der Familie wird ein lokaler Datenserver ( NAS – Network Attached Storage) verwendet, der mit dem FritzBox Router implementiert ist. Darauf können alle Familienmitglieder lokal mit einer APP von Apple und Android Geräten zugreifen. Für alte Anwendungen und Dokumente ist ein Offline Archiv Windows 7 Server installiert.  Mit dieser Strategie kann man sicher einige Jahre gut leben bis sich der Dampf über der Cloud Szene gelichtet hat.

Fussball – Digital bei Leicester City und altmodisch beim VfB Stuttgart

One cut higher

One cut higher

Deutschland hinkt auf vielen Gebieten bei der Digitalisierung hinterher. Der jährliche IT Gipfel bei der Kanzlerin sollte eigentlich in IT Jammertal umbenannt werden. Bei großen Industrieunternehmen und der Logistik ist Deutschland recht gut digitalisiert. In der öffentlichen Verwaltung und auch bei neuen Anwendungen sieht es dagegen ziemlich düster aus.

Ein Beispiel wie man neue Technologien erfolgreich anwendet ist der Fußballverein Leicester City. Big Data und Wearable Technologie werden dort eingesetzt um Verletzungen der Spieler zu vermeiden und Stärken und Schwächen zu analysieren. Schlüssel zum Erreichen der Meisterschaft in England war u.a. die Reduzierung der Verletzungen (50%) und die Reduktion der Rekonvaleszenz Zeiten. Die Spieler werden u.a. mit Wearable Tags im Training und bei den Spielen überwacht und rechtzeitig gebremst, wenn sie sich überfordern. Natürlich auch vom Trainer etwas angeregt wenn sie es sich etwas zu bequem machen. Ein ganzes Bündel von Maßnahmen (Foxy Leicester) sorgt dafür, daß die Spieler etwas besser eingestellt und selbstbewusster sind als der Gegner auf dem Platz.

Die Digital Naiven z.B. beim Bundesliga Absteiger VfB Stuttgart verlassen sich wie früher auf die „bewährten“ Methoden (Experten schauen sich die Videoaufnahmen an) und Psycho-Appelle. Von außen sieht es dann aus als sei das Management von allen guten Geistern verlassen. Während Leicester City die Meisterschaft feiert kann der VfB Stuttgart seine Methoden nun in der 2.Liga anwenden.