Archiv der Kategorie: Software

Wie konnte Facebook so schnell wachsen – Crowd Development

Free FacebookDie deutschen Informatiker schauen  an die US West Coast und wundern sich, wie schnell dort Ideen (meist sogar ziemlich alte) in erfolgreiche neue Produkte umgesetzt werden. Das Geheimnis liegt in der unkonventionellen Art wie die Produkte entwickelt werden. Jenseits des „offiziellen“ Management Sprechs beschreibt der Entwickler Ben Blumenfeld, wie in den ersten fünf Jahren bei Facebook entwickelt wurde. Anstatt den von deutschen Informatikern und deren Managern geforderten geordnetem Entwicklungsablauf  mit Marktanalyse, Anforderungen, Entwurf, Codierung und Test verlief die Entwicklung extrem chaotisch. Gruppen von Entwicklern taten sich zusammen und entwickelten, was sie für notwendig hielten. Die Methoden wurden flexibel gemäß den Anforderungen und den Kenntnissen und der Erfahrung der Entwickler gewählt. Irgendwann tauchten diese Projekte dann auf dem Bildschirm von Mark Zuckerberg auf und wurden dann offiziell. Manche Projekte, die nicht auf der offiziellen Linie lagen, mussten geheim durchgeführt werden. Das Management versuchte nicht, die Arbeitszeit jedes Mitarbeiters zu kontrollieren. Zur gewissen Zeitpunkten tauchten diese Projekte dann auf und wurden entweder fortgeführt oder aufgegeben.

Mit dem Anwachsen der Benutzerzahlen mussten natürlich offizielle Prozesse für  Integration, Test und Release eingeführt werden. Der Schwerpunkt lag am Anfang aber auf der Implementierung neuer Ideen. So ähnlich lief am Anfang auch die Entwicklung bei Microsoft, Apple, Amazon u.a., die heute Marktführer sind. Zum Teil gelingen solche Projekte auch in etablierten Firmen wie SAP (Hana) oder IBM (Watson) wenn man wenigstens einer kleinen Gruppe von Entwicklern in der Firma Freiheiten gewährt und sich das Management wenigstens ein bischen etwas zutraut.

Für diese Art der Entwicklung braucht man viele eigenständige und kreative Entwickler, die für erfolgreiche Arbeit nicht nach Tarif, sondern mit einigen Millionen $ belohnt werden. Mit einer Herde von Lämmern und Hasenfüßen kann man solche Projekte natürlich nicht durchführen. Anstatt Start Up Unternehmen  bekommt man dann Shut Down Landschaften.

Advertisements

Autofill Superfishing mit Safari und Chrome

CyberwarkerZur Zeit gehen viele Emails bei mir ein, in denen man aufgefordert wird, ein Formular auszufüllen und per Email abzusenden. Themen der Emails sind z.B. Gewinne, Angebote für Prämien, Drohbriefe usw. Dahinter steht meist eine neue Art von Phishing mit der viele Benutzerdaten durch Autofill Phishing abgegriffen werden. Betroffen sind dabei die „komfortablen“ Browser wie Safari und Chrome sowie Derivate dieser Browser. Der Firefox Browser ist davon nicht betroffen. Grundsätzlich sollte man keiner Aufforderung folgen, auf einen Link zu einer unbekannten, ungewollten Webseite zu klicken.

Es wird empfohlen speziell Passwörter nicht durch Autofill und auch nicht durch Copy/Paste (auch bei Firefox) einzugeben. Da die Daten im Copy/Paste Buffer von jeder beliebigen besuchten Websites ausgelesen werden können. Grundsätzlich wird empfohlen, das automatische Nachladen von externen Inhalten im Browser zu sperren sondern nur nach Bestätigung durch den Benutzer zu erlauben. Das ist sehr wirksam gegen versteckte Angriffe aber leider auch lästig, da viele Webseiten externe Inhalte nachladen.

Siehe auch: Passwort Diebstahl – komplizierte Passwörter sind sinnlos

Yahoo Diebstahl über Fake Cookies

HackerDen Weltrekord für Verlust von Benutzer Daten hält nun Yahoo. Über 1 Milliarde Benutzerdaten mit Namen, Geburtstag, Telefon Nummer, Passwörtern usw wurden mit einer Attacke abgegriffen, die Sicherheitspraktiker schon lange kennen, die aber offensichtlich die Organisatoren der Yahoo Website nicht kannten oder nicht beachteten. Die Hacker fälschten die von Yahoo erstellten Cookies für Zugriff ohne Passwort.  Offensichtlich hatten sie Zugriff auf die „geheimen“ Programme von Yahoo mit denen diese Cookies erstellt und verwaltet werden.

Dies ist ein klassischer Fall von „Security through Obscurity„,  der bekanntlich irgendwann schief geht. Diese Methode wird aber immer wieder verwendet. Früher z.B. für die PINs der deutschen Banken, für die Zugriffscodes deutscher Autos usw. Man will sich damit ein komplexes Management der Schlüssel für die Verschlüsselung der Daten sparen und den Benutzer nicht mit der häufigen Eingabe von Passwörtern vertreiben.

Während Mathematiker immer komplexere Verfahren zur Verschlüsselung der Daten entwickeln, weiß der erfahrene Hacker, daß man Fehlstellen in den komplexen Abläufen zur Erstellung und Verwaltung der Schlüssel suchen muss oder Pfade, die nicht sicher sind.  Eine Schwachstelle findet man immer. Je komplexer die Systeme werden, desto häufiger wird man Schwachstellen finden. Es gibt ganz wenige Sicherheitsexperten, die komplexe Systeme ganzheitlich betrachten und analysieren können. Der größte Teil der Experten und der Sicherheits IT Industrie ist auf Jahre hinaus noch in der Lernphase. Damit wird z.B. das Internet of Things (IoT) in den nächsten Jahren extrem gefährdet sein. Eine gute Nachricht:  die Daten privater Benutzer werden uninteressant,  sie sind im Web bereits weitgehend verfügbar.

 

Achtung Umleitung – Internet Schwachstelle Domain Name Server (DNS)

Router

Router

Über Hacks auf die Internet Infrastruktur wird selten gesprochen. Die Denial of Service Attacke, bei der die Server von Twitter, Ebay u.a. durch eine Flut von Anfragen lahm gelegt wurden, wurde in der Presse umfassend diskutiert. In Zukunft können es sich die Hacker aber einfacher machen und einfach die Netzinfrastruktur angreifen.

Die Internet Infrastruktur (Leitungen, Schalter, Router und Stromversorgung) wird zunehmend über Kontrollnetze (Software-defined Networking) gesteuert. Beliebt ist bei Geheimdiensten z.B. die Umleitung über ein befreundetes Land. Darf der US Geheimdienst Bürger der USA per Gesetz nicht abhören wird die Datenstrom z.B. über Deutschland geleitet. Da darf man Ausländer natürlich abhören. Zusätzlich werden Abhörsoftware und Filter gleich mitgeliefert. Die Software ist ja kompatibel, da Deutschland keine Abhörsoftware mit dem letzten Stand der Technik hat.  Umgekehrt schicken die Deutschen ihre Daten nach USA wo sie umfassend ausgewertet werden. Der Tipp, der zur Enttarnung des IS Anhängers beim BND führte, kam z.B.  aus USA (da wird der BND gut überwacht). Schaltet man den Strom von Netzwerken über das Kontrollnetz ab, kann man das gesamte Netzwerk (auch Strom, Wasser, Verkehr) manipulieren oder abschalten. Nur notorische Optimisten (Digital Naive) glauben, daß sie das Eindringen von Hackern in diese Netzwerke verhindern können. Auf alle Fälle horte ich für den Fall des Falles einen Notvorrat an Brauch- und Trinkwasser sowie genügend Holz für den Kamin.

Web BordersJEin Gesetz „Wer Internet Datenströme umleitet oder bewußt unterbricht, wird mit Gefängnis bis zu 5 Jahren bestraft“ gibt es ja nicht. Im Kleinen erlebt man solche Angriffe bereits jetzt. Dabei werden die Name Server Einträge (die sagen wo die Daten hingehen) auf dem PC, dem Server oder im Router gefälscht. Relativ harmlos ist das, wenn einige Junior Hacker wie z.B. bei Lenovo ( Lenovo website DNS record hijacked ) auf eine Ulk Seite umleiten. Profis gehen da subtiler vor und können mit etwas Geschick den gesamten Datenverkehr manipulieren ohne dass die Benutzer etwas merken. Vielleicht brauchen sie demnächst ihr Elektroaut0 nicht mehr starten – Hacker übernehmen das wie bei TESLA sicher gegen Gebühr. In den Chefetagen der deutschen Automobilindustrie wird gerne über Updates der Software im Automobil ( „Over the air provisioning“) und vielfältige Internet Services schwadroniert ohne daß die Führungskräfte auch nur eine Ahnung von der Komplexität der Systeme und der Sicherheit haben.

Wenn immer man als privater Nutzer auf Webseiten landet, die man gar nicht besuchen wollte, wenn ungewohnte neue aggressive Werbung in bekannten Webseiten auftaucht oder wenn die Antwortzeiten sich verlängern, sollte man die DNS Einträge im PC, im Router und Smartphones prüfen z.B. iPhone. Vorteilhaft ist, wenn man sich die Werte gleich bei der Installation des Gerätes aufschreibt. Bevor man bei einer vermuteten Störung den DNS Eintrag ändert, sollte man im Internet mit der IP Adresse nach Hacker Hinweisen suchen. Nicht immer kehren neue Besen gut. Zusätzlich sollte man die IP Adresse des Zielservers prüfen.

PS Persönlich war ich einmal von einem DNS Hijacking betroffen. Es war zeimlich mühselig das Problem zu beseitigen.

Bot Netze – Fake Likes und Page Impressions

HackerDie klassische Bedrohung für private PCs  war bisher wohl der Diebstahl von Daten mit (Phishing) oder ohne Beteiligung (Viren) Nutzers oder das Einspielen von Schadprogrammen. Dagegen kann man sich durch Aufmerksamkeit und Virenschutzprogramme schützen.  Der finanzielle Schaden ist entgegen der öffentlichen Meinung jedoch gering. Im Jahr  2016 schätzt man den Schaden beim Online Banking auf 17.9 Millionen €.  (Statista) . Das fällt bei den deutschen Banken nicht einmal bei der Portokasse ins Gewicht.

Die Angriffe auf Server großer Firmen (Denial of Service) mit dem Ziel diese lahmzulegen sind spektakulär aber nur ein typisches Einmal-Geschäft. Die Gefahr dabei gefasst zu werden ist relativ hoch, weil die betroffenen Firmen viel Geld für die Erfassung der Täter ausgeben können. Häufig wird bei Erpressung gar nicht bezahlt.

Das eigentliche Geschäft wird in Botnet Hacker Kreisen mit Fake Traffic (Virtueller Internet Verkehr) in der Werbebranche gemacht. Der Umsatz wird 2016 auf 7 Milliarden $ geschätzt. Typische Business Modelle sind z.B. (aufsteigende Komplexität)

  • Ein Sitebetreiber kauft Hits auf seine Seite, um Relevanz vorzutäuschen und das Vertrauen des Kunden zu gewinnen.Verlage können damit auch die Preise für die Anzeigen auf ihren Portalen erhöhen. Autoren können sich damit „wertvoller“ machen. Gerne erhöht man vor dem Verkauf einer Internet Site die Zahl der Besucher oder Benutzer.
  • Eine Werbefirma oder ein Autor wird per Klick bezahlt (YouTube Autor, in Deutschland z.B. VG Wort Abrechnung für Autoren). Zitat – Confessions of a Fake Web Buyer::  As a website running an arbitrage model, all that mattered was profit, and for every $0.002 visit we were buying, we were making between $0.0025 and $0.004 selling display ads through networks and exchanges. Gibt man wie der Bekenner 10 000 $ pro Tag für Traffic aus kann man pro Tag >5000 $ Gewinn machen!
  • Eine Firma, Web-Autoren, Verlage, Pop Stars oder auch Politiker wollen mit Likes die Nutzer beeindrucken oder ihre Werbeeinnahmen erhöhen. Likes, die nicht durch identifizierte und authentisierte Benutzer erzeugt werden, sind relativ billig. Likes z.B. bei Facebook sind schon etwas komplizierter. Hierfür kann man Fehler in den Facebook Programmen ausnutzen oder Fake Facebook Benutzer Profil anlegen ( http://de.wikihow.com/Ein-Fake-Facebook-Profil-erstellen ). Das ist ziemlich kompliziert. Facebook versucht mit aufwändigen Algorithmen das Anlegen von Fake Konten zu verhindern. Die Hacker entwickeln deshalb auch immer komplizierte Methoden für das Anlegen von Konten, die mit vermeintlich privaten Daten gefüttert werden. Fake Konten sind Gift für die Werbeeinnahmen von Facebook. Privaten Nutzern wird nicht empfohlen Fake Konten bei Facebook anzulegen.
  • Die höchste Stufe und auch die teuerste ist das Vortäuschen echter Konten z.B. des Chefeinkäufers einer großen Industriefirma. Hier bezahlt man für die Einblendung einer gezielten Werbung schon mal 200 $.

Für raffiniertere Angriffe leitet man die Internet Daten meist über einen „Man in the Middle“ Server (Proxy), dafür manipuliert man die Adressen der Dienstserver und/oder Router siehe:  Internet Netzwerk – was man darüber wissen sollte.

Der NSA greift meist weiter im Netz durch spezielle Netzwerksteuerung ein. Otto Normalverbraucher hat da wenig Möglichkeiten, Angriffe zu analysieren. Moderne Betriebssysteme wollen diese Komplexität vor den Nutzern verbergen. Vorreiter ist da Apple. Werden die Antwortzeiten bei allen oder bei bestimmten Websites langsam oder wird viel und/oder aggressive Werbung auf bekannte Webseiten eingespielt sollte man die Netzwerkeinstellungen überprüfen. Für eine echte Analyse braucht man aber einen sehr guten Sicherheits- und Netzwerkspezialisten, den sich Privatleute wohl nicht leisten können.

Ratschläge im Web empfehlen meist die Installation von Virenscannern oder bieten „Online Hilfe“ über das Internet an. Falls noch keine Schadsoftware auf dem PC „wohnt“, wird bei solchen Aktion häufig ein Bot auf dem Rechner installiert und der Rechner wird damit ein wertvolles Mitglied der Bot Armee.

Eine wertvolle Erkenntnis: Allen Hits, Likes, Discussions usw im Web sollte man ebensowenig trauen wie den privaten oder beamteten Datenschützern (BSI), die eigentlich nur bei der Grundsicherung hilfreich sind. Die Hacker sind meist um Internet-Jahre voraus. Meine Devise: „Ich traue niemandem – nicht einmal mir selbst“ .

 

Spenden für Wikipedia und Mozilla (Thunderbird)

Email ArchivAllgemein wird über die Kommerzialisierung des Internets geklagt. Es gibt aber noch einige Ecken der Widerstand leisten. Wer täglich Wikipedia oder Mozilla z.B. Thunderbird für Email nutzt, sollte mit Spenden auch dafür sorgen dass der Betrieb auch von den Nutzern finanziert wird. Die Alternative wäre, dass die letzten freien Services von großen IT Firmen aufgekauft werden. Dann könnte z.B. ich meine Email Archive wohl vergessen, die bisher bei Thunderbird in guten Händen waren. Alternative: Cloud Sklave werden bei Google, Apple, Microsoft

Man sollte sich deshalb gur überlegen wie viel die Services von Wikipedia und Thunderbird eigentlich wert sind z.B. im Vergleich zu einem Zwangsabonnement des deutschen Fernsehens und einen fairen Beitrag zu den Kosten leisten.

Spenden Wikipedia

Spenden Mozilla (Thunderbird)

Muss jetzt Microsoft die Kunden für Probleme bei Windows 10 Upgrade bezahlen?

Bru_PeopleViele Windows Kunden werden wohl mehr Probleme mit den Updates von Microsoft haben als mit ihren Dieselfahrzeugen. Erstaunlich verlangen da die Anwälte in USA keine Entschädigung für ihre Kunden. In den AGBs von Microsoft wird ja jegliche Haftung ausgeschlossen. Das haben VW, AUDI u.a. beim Verkauf ihrer Produkte in USA wohl versäumt. Die englische Verbraucherorganisation Which? will nun Microsoft auf Schadenersatz verklagen. Nach angelsächsischem Recht ist das ähnlich wie in USA möglich. Die deutschen Michel haben diese Möglichkeit nicht.

Cloud Sklave werden – bei Apple, Google oder Microsoft

Blue Cloud SkyZurück zur Steinzeit der IT ist der neueste Trend bei den großen Anbietern. Anstatt Anwendungen auf dem lokalen Gerät auszuführen, sollen jetzt Daten und Anwendungen auf zentralen Servern im Web laufen. Ältere IT Hasen erinnern sich noch an die Zeiten als sie ihre Programme in Form von Lochkarten zum Zentralrechner bringen mussten (noch heute bringt man z.B. große Mengen von Daten per Festplatte zum Hochleistungsrechenzentrum in Stuttgart). Einen wesentlichen Fortschritt brachten dann in den 70er Jahren die IBM /370 Systeme, die mit standardisierten Terminals und einem Browser (3270 Architektur) über Coax- und Telefonleitungen bedient werden konnten.

Die Benutzer waren die Sklaven des Rechenzentrums – was die RZ Leitung als Programm nicht anbieten wollte, gab es einfach nicht. Die Programmierer erfanden deshalb die Virtuelle Maschinen, die man auf den Maschinen des Rechenzentrums installieren konnte. Dort konnte man eigene Programme installieren und über die Netzwerke Freunden in der ganzen Welt zur Nutzung zur Verfügung stellen. Diese Technologie war sehr teuer – ein Programmierarbeitsplatz kostete damals etwa 100 k$ (gute alte!). Das gemeine Volk konnte sich das natürlich nicht leisten. Oft fand man in den Büros noch Terminals für zwei Mitarbeiter die man drehen konnte und um die man kämpfen musste. Der Vorteil dieser Systeme war die große Stabilität. An den Terminals konnte man nichts verändern vor allem keine Programme laden.

Mit der Einführung des IBM Personal Cumputers in den 80er Jahren kam die große Freiheit für die IT Nutzer. Jeder konnte nun Programme seiner Wahl installieren, standardisierte I/O Geräte anschließen und den PC auch zum Kunden oder nach Hause mitnehmen. Am Anfang waren das noch Ziehkoffer (Schlepptop), die dann zu Laptops und Smartphones mutierten. Die Programmentwickler hatten eine einheitliche Plattform und Zugriff auf eine Vielzahl externer Geräte mit standardisierten Schnittstellen und schufen zahllose Programme für die Anwender. Die große Freiheit führte auch ins Chaos. Programme und Daten waren zunehmend nicht kompatibel und auch nicht austauschbar. Mit der Einführung des Internets und des Webbrowsers in den 90er Jahren sollte wieder Ordnung geschaffen und wieder eine ähnliche Infrastruktur wie zu /370 Zeiten hergestellt werden. Auf Millionen von Servern wurde über mehr oder weniger einheitliche Browser zugegriffen.

Die Personal Computer der Benutzer wurden zu komplexen Rechenzentren mit vielen inkompatiblen Programmen, häufigen Updates, Angriffen mit Viren, Trojanern und Fehlern in  schlecht programmierten Anwendungen. Die Benutzer sind mit der Bedienung und Wartung ihrer Personal Computer überfordert und wollen nicht einen Großteil ihrer Zeit mit der Wartung ihrer Geräte verbringen. Da liegt es nahe zum bewährten /370 System Modell zurück zu gehen. Die Anwendungen laufen auf vielen virtuellen Maschinen in der CLOUD – man braucht eigentlich nur noch einen standardisierten Browser auf dem eigen PC, PAD oder Smartphone und natürlich schnelle Datenübertragung z.B. über Glasfaser Netze.

Hierfür braucht man aber wieder große Rechenzentren in denen die Anwendungen in Millionen von virtuellen Servern laufen. Dafür benötigt man viel Geld, spezielles Knowhow, globale Infrastrukturen und auch Einfluss auf die Politik und Behörden in vielen Ländern.

Im Moment gibt es eigentlich nur die drei Firmen Apple, Google und Microsoft, die auf diesem globalen Markt (ohne China) agieren können. Alle drei Firmen versuchen ihre proprietären Standards auf den Märkten durchzusetzen. Die Benutzer müssen sich jetzt entscheiden, wem sie sich anvertrauen und wem sie in Zukunft ihr Geld für die Cloud Services geben wollen. Die großen 3 ? haben alle das Ziel mehr Geld von den Kunden zu kassieren und den Cloud IT Markt zu dominieren. Dabei verfolgen sie unterschiedliche Strategien.

  • APPLE baut auf Innovation bei den Endgeräten, leichte Bedienbarkeit von Hardware und Software und ein Netz von unabhängigen Anwendungsentwicklern. Mit hohen Preisen für die Hardware versucht man das Geld für die Investitionen in die Cloud Infrastruktur zu verdienen. Bei Unternehmen tut sich Apple aber sehr schwer. Apple hat aber genug Geld in der Kriegskasse um die Cloud Investitionen zu stemmen. Es gibt allerdings einen ziemlichen Engpass bei internen und externen Entwicklern. Skill kann man nicht so einfach kaufen. Apple möchte Premium Cloud Anbieter werden, der hohe Preise für seine Produkte verlangen kann.
  • MICROSOFT hat zu lange auf traditionelle WINDOWS Software auf PCs und Servern gesetzt und versucht jetzt bei Cloud aufzuholen. Die Stärke von Microsoft ist die große installierte Windows Software Basis bei Endverbrauchern und Unternehmen. Microsoft kann wohl langfristig keine eigene mobile Hardware erfolgreich anbieten und ist ähnlich wie heute bei PCs und Servern auf externe Partner angewiesen. Da werden wohl ähnliche Probleme wie heute bei PCs auftreten. Microsoft hat aber genügend Verbraucher und Unternehmen auf den Microsoft Pfad verführt, die zumindest kurzfristig mit ihren Kernanwendern nicht zu anderen Cloud Anbietern wechseln können. Microsoft hat eine große Mannschaft von internen und externen Entwicklern und viel (auch leidvolle) Erfahrung im Management von großen Client/Server Netzen. Microsoft wird auf große Stückzahlen bei gehobenen Preisen für den Cloud Service setzen. Da Unternehmen ein wesentlicher Markt für Microsoft sind, wird wohl weiterhin Wert auf langfristige Stabilität und Kompatibilität gelegt.
  • GOOGLE hat eigentlich nur die Such- und Werbungstechnologie als eigene Technologie Basis. Ein wesentliches Asset ist aber das Android Betriebssystem für die Anbieter von billiger Hardware. Ähnlich wie die Google Anwendungen wurde Android aber schnell u.a. mit viel Open Source Code gestrickt. Das sorgfältige Management eines komplexen Systems mit vielen Hardware- und Softwarelieferanten ist sicher nicht eine Stärke von Google. Benutzer müssen damit rechnen, dass Google viele Anwendungen einführt aber bei Mißerfolg sofort einstellt. Google zielt mit seiner Cloud Strategie auf billige, kurzlebige Produkte, die in hoher Stückzahl verkauft werden.

Mit Einführung der Cloud Services ändert sich auch das Business Modell der Anbieter. Bisher konnte man durch Verkauf von Software mit relativ wenig Einsatz von Kapital hohe Gewinne einstreichen – Software Entwickler kosten ja nicht viel! Für den Aufbau der Cloud Infrastruktur braucht man aber viel Geld für Rechenzentren, Service und schnelle Netze. Ein Teil der Hardware, die bisher der Benutzer eingekauft hat, ist jetzt beim Cloud Service Provider.  Die Gewinnmargen werden also sinken und müssen durch größere Umsätze aus den Service-Einnahmen kompensiert werden. Bei einem solchen Umbau sind schon einige große IT Firmen gescheitert.

Private IT Benutzer werden sich je nach Anforderungsprofil einem der drei Cloud Anbieter anschließen müssen. Typische Benutzer werden wohl ausgehend von einem Windows PC mit I/O Geräten (in Zukunft werden es wohl mehr) verschiedene Cloud Dienste andocken. Schon in der Familie wird man mit verschiedenen Endgeräten arbeiten, weil die Familienmitgieder meist in unterschiedlichen Gruppen agieren. Für Benutzer mit wenigen Standardanwendungen kann es vorteilhaft sein, schnell in die Cloud zu migrieren.

Spätestens wenn Microsoft das Geld für das bisher verschenkte  WINDOWS 10 kassieren möchte, wird es Zeit zu handeln.

Meine persönliche Strategie ist es den Umzug meiner IT in die A-G-M Cloud hinauszuzögern. Für professionelle Zwecke verwende ich schon seit Jahren eine private Cloud (PrivatPortal – Micorsoft Sharepoint gehosted in der Schweiz). Für den Datenaustausch in der Familie wird ein lokaler Datenserver ( NAS – Network Attached Storage) verwendet, der mit dem FritzBox Router implementiert ist. Darauf können alle Familienmitglieder lokal mit einer APP von Apple und Android Geräten zugreifen. Für alte Anwendungen und Dokumente ist ein Offline Archiv Windows 7 Server installiert.  Mit dieser Strategie kann man sicher einige Jahre gut leben bis sich der Dampf über der Cloud Szene gelichtet hat.

Fussball – Digital bei Leicester City und altmodisch beim VfB Stuttgart

One cut higher

One cut higher

Deutschland hinkt auf vielen Gebieten bei der Digitalisierung hinterher. Der jährliche IT Gipfel bei der Kanzlerin sollte eigentlich in IT Jammertal umbenannt werden. Bei großen Industrieunternehmen und der Logistik ist Deutschland recht gut digitalisiert. In der öffentlichen Verwaltung und auch bei neuen Anwendungen sieht es dagegen ziemlich düster aus.

Ein Beispiel wie man neue Technologien erfolgreich anwendet ist der Fußballverein Leicester City. Big Data und Wearable Technologie werden dort eingesetzt um Verletzungen der Spieler zu vermeiden und Stärken und Schwächen zu analysieren. Schlüssel zum Erreichen der Meisterschaft in England war u.a. die Reduzierung der Verletzungen (50%) und die Reduktion der Rekonvaleszenz Zeiten. Die Spieler werden u.a. mit Wearable Tags im Training und bei den Spielen überwacht und rechtzeitig gebremst, wenn sie sich überfordern. Natürlich auch vom Trainer etwas angeregt wenn sie es sich etwas zu bequem machen. Ein ganzes Bündel von Maßnahmen (Foxy Leicester) sorgt dafür, daß die Spieler etwas besser eingestellt und selbstbewusster sind als der Gegner auf dem Platz.

Die Digital Naiven z.B. beim Bundesliga Absteiger VfB Stuttgart verlassen sich wie früher auf die „bewährten“ Methoden (Experten schauen sich die Videoaufnahmen an) und Psycho-Appelle. Von außen sieht es dann aus als sei das Management von allen guten Geistern verlassen. Während Leicester City die Meisterschaft feiert kann der VfB Stuttgart seine Methoden nun in der 2.Liga anwenden.

Apple Link Desaster mit iOS 9.3

Mit dem neuen iOS 9.3 Release hat Apple zig Millionen von iPhones praktisch lahmgelegt – man kann Links nicht mehr verfolgen. Offensichtlich sind vorwiegend ältere Geräte aber auch neue Geräte betroffen (Achtung: diesen Link http://www.mobilegeeks.de/news/apple-ios-9-3-update/ können Sie mit einem betroffenen iPhone nicht verfolgen!). Auch die zentrale Funktion „Suche“ mit Google usw ist damit unbrauchbar. Der Opera Mini Browser funktioniert übrigens – er arbeitet mit einem Host Proxy zur Auflösung der Links. 

Nun kann es bei neuen Software Versionen immer mal wieder bei der Vielzahl der Funktionen der Software fast unvermeidlich zu Problemen kommen.

Fast unerklärlich ist allerdings, wie es zu einem solchen groben Fehler kommen konnte, der Indikator für größere strukturelle Probleme bei Apple ist. Typische Ursachen für solche groben Fehler sind z.B.

  • Erfahrene ältere Mitarbeiter, die noch den Überblick über die Zusammenhänge und Struktur des Systems haben, sind ausgeschieden oder werden von inkompetentem Management zur Entwicklung der neuen Systeme „abgeordnet“.
  • Bei der Softwareentwicklung wird gegen Spezifikationen und nicht gegen Benutzer Funktionalität getestet. Seriöse Tests schließen immer umfangreiche Sequenzen von typischen Benutzerfunktionen ein.
  • Man erspart sich das Testen der älteren Systeme – man hat ja den kommerziellen Druck, daß die Kunden öfter neue Geräte kaufen.
  • Man erspart sich den Test mit den wichtigsten APPs. Vermeintlich sind die ja sauber entkoppelt, was im Fehlerfall meist nicht stimmt.
  • Man ignoriert (zumindest nach außen) die vielen Fehlermeldungen, die im Web in Foren und Blogs auftauchen.
  • Service Mitarbeiter schicken die betroffenen Kunden durch sinnlose Aktivitäten, weil es keine etablierten Regeln für Ausnahmesituationen gibt.
  • Apple hat kein zuverlässiges  System mit dem man solche Fehler rasch testen und beheben kann.

Für die Kunden hat ein solcher kapitaler Fehler zunächst einen Vorteil. Man denkt einmal darüber nach, in welche Abhängigkeit man sein Unternehmen oder sich privat durch die Benutzung der Dienste von Apple gebracht hat. Offensichtlich braucht man eine BackUp Strategie – wohl dem der jetzt noch einen Windows PC oder ein Galaxy Tablet hat. Offensichtlich ist auch APPLE nicht der sichere IT  Hafen, den das Management und die Werbung den Kunden vorgaukelt.

Für Apple ist das sicher ein massiver Imageschaden bei Unternehmen und Verbrauchern. Man begründet ja die hohen Preise durch besonders hohe Qualität. Da kommt die gleichzeitige Nachricht, dass das gerühmte APPLE Sicherheitsystem von den amerikanischen Behörden in einem Einzelfall (mit Hulfe einer israelischen Spezialfirma, die sicher auch für andere „Kunden“ arbeitet) geknackt wurde, höchst ungelegen. Auch hier suggeriert die APPLE Werbung absolute Sicherheit obwohl man moderne Sicherheitschips mit entsprechendem Aufwand auch ohne die Mitarbeit des Herausstellers knacken kann. Das macht die Strategie von Apple, viele Schlüssel von verschiedenen Anbietern im sicheren Apple Chip/System zu speichern und damit einen zentralen Kontrollpunkt im Web zu besetzen, ziemlich fragwürdig.

Andere Softwarehersteller können aus den Fehlern von Apple wohl keinen Vorteil ziehen. Die gesamte Branche ist davon negativ betroffen.

PS Erfahrene Benutzer warten immer einige Wochen bevor sie eine neue Version des Betriebssystem auf ihrem Gerät installieren. Die Gefahren durch Viren u.a. Schadsoftware, die durch die neue Version gebannt werden soll, sind meist kleiner als die durch mitgelieferte „Schadsoftware“ der Hersteller. Bei älteren iPhones wird aber schnell der Speicher knapp, wenn eine neue Version des Betriebssystems von Apple zur Installation in den Speicher geladen wird. Man muss dann das neue Betriebssystem installieren, um Speicher frei zu machen. So hat der APPLE Bug auch den Autor des Blogs erreicht!