• Schi 4.0

    {feature image (C) “Loop21 Mobile Net GmbH” – gefunden auf futurezone.at}

     

    Dieser Tage eine Schlagzeile: “WLAN auf der Schipiste wird zum Standard“. Der Artikel erklärt weiter, dass das WLAN besonders in der Mittagszeit genutzt würde (hoffentlich von jenen abseits der Piste, denk ich mir noch) und dass die Frage nach dem WLAN meist die erste beim Betreten einer Hütte wäre. Ein unmittelbarer Realitycheck bei den Kids bringt hervor: Jaja – das kennen wir schon lang!

    Kurz überlege ich mir: Mit dem Handy in der Hand auf zwei Brettern den Berg runtersausen (Anm.: Ich bin kein Schifahrer) – interessant. Könnte cool aussehen und sich schmerzhaft anfühlen – mitunter. Man müsste Helmvisiere mit Dateneinblendung haben (gibt’s ja bereits fürs Motorrad). Da lese ich schon: “Skiwelt amadé lockt mit Datenbrille zum Ausborgen.” – Also auch schon alt.

    Trotzdem: Ein paar Probleme – abseits einer gewissen Kollisionsgefahr beim beliebten Downhill Race Livestream – bleiben doch. Die könnte man eliminieren:

    • Strom: Die Hütten und Liftsäulen haben zwar jetzt alle ihre ordentliche WLAN-Abdeckung, haben aber wohl vielfach zum Aufrüsten ihrer Steckdosen vergessen. Wenn etwa 500 ausgehungerte Schifahrer zu Mittag essen, trinken, sich sonnen und mit den Freunden snapchaten wollen, dann brauchen wir Steckdosensäulen bei jedem Tisch. Oder …
    • Das Hochleistungs-Akkupack in der Tasche. Oder noch besser: In die Schijacke verbaut. Am Rücken einer mittelgroßen Jacke gehen sich so 5 – 7 LiPo-Zellen locker aus (auf die feuersichere Verbauung achten).
    • Alternativ wäre die Verbauung von Solarzellen im Schulterbereich des Anoraks denkbar. Ein kleines Zimo-Panel bringt angeblich etwa 5-6V. Bei gutem Schiwetter wohl ausreichend, um ein bisschen Surfen, Route Checken oder Chatten auf der Schipiste zu ermöglichen, bis Zeit für einen Stop und den nächsten Schnelladevorgang ist.
    • Der könnte sich übrigens mit USB-Ladestationen auf längeren Sesselliftfahrten ausgehen.
    • Nachts will dann das ganze Zeug ordentlich für den nächsten Tag vorbereitet werden, weshalb auch die Hotelleriebetriebe gut daran tun, ausreichend Steckdosen in den Zimmern vorzusehen (ich reise ja mittlerweile mit dem persönlichen Dreifach-Stromverteiler auf Grund dieses immer virulenter werdenden Problems)
    • Routenplanung: In kurzer Zeit möglichst viel des auserkorenen Urlaubs-Schigebiets kennen zu lernen hat schon seinen Sinn, finde ich, weshalb die Gebietsbetreuer gut daran täten, entweder in der eigenen App oder auf deren Website optimierte Schischaukel-Tagesrouten anzubieten. Inklusive wählbaren Schwierigkeitsgrades, Starring (“like” – möchte ich nochmal fahren – …) und natürlich der Sharing-Möglichkeit mit Freunden (wozu sonst Online-Sein; “ich bin hier; wo bist du gerade”).
    • Die Routenanweisungen werden dann per Bluetooth-Lautsprecher in den Helm durchgegeben, wenn nicht grade das Lieblingslied läuft (gibt’s schon – ich weiß; “Warte, Schatz, ich muss erst mein Handy rausnehmen und die Musik abschalten, damit ich dich verstehen kann.”)
    • Selbstredend blenden die Hütten- und Attraktionen-Betreiber entlang der Strecke per iBeacons an den Liftsäulen und Bäumen den p.t. Schigästen die besten tagesaktuellen Angebote abhängig von deren Vorlieben ins Helmvisier ein – das nur zum Drüberstreuen.
    • Und wenn ich dann von der Bergstation aus mein Mittagsmenü per Voice-Command bestelle, bekomme ich 10% Rabatt und einen Jagatee extra.

    Zugegeben: Mein letztes Mal auf Brettern im Schnee liegt doch wohl schon so etwa 5 Jahre zurück (wenn nicht mehr). Der Test all dieser IoT Errungenschaften macht allerdings schon irgendwie Lust … Vielleicht stell ich mich in den kommenden Wiener Semesterferien wieder mal auf eine Schipiste und schau mir an, was von all dem schon geht. Um dann vielleicht festzustellen, dass die 4G-Abdeckung bereits so breit ist, dass das eingangs noch als Alleinstellungsmerkmal vermutete WLAN bald schon wieder völlig wurscht sein wird.

    P.S.: Am Realitätscheck passionierter Schifahrer wäre ich übrigens brennend interessiert … bitte hinterlasst mir doch einen Kommentar hier. Danke!

    Published by:
  • Longplay

    We are the sole generation to watch vinyl’s decline and(!) rise!

    • These days, news reported vinyl purchases to exceed digital downloads.
    • My birthday this year saw a very special present: My brother had produced his first ever record. Circulation: 2 – one for him and one for me!
    • My last turntable didn’t make a move anymore for more than 15 years; I recently disconnected it from my HiFi – it still lurked around somewhere …

    However, with that disc – that black shining vinyl disc from my brother – at hand, I had to find a way to listen to it …

    A 70ies kid

    I “learned” music in the 70ies. My dad had kind-of an album of single records: Kinks, Walker Brothers, … one had Omar Sharif on the cover, I recall (no clue what that one was). Also some LPs – Roger Whittaker, Bert Kaempfert, … I grew up with that stuff. We had a Lenco compact HiFi system with a turntable. It exists to the day. Records were played “wet” (anyone here knows what this means?).

    Later my bro and I owned a cassette player – mono – which we used to create our own “samplers” from the albums we found at home. I recall, that some day in 1986 or 1987 I played Jethro Tull’s “Bursting Out” to my parents on my dad’s HiFi – and tried to explain it to them … they probably laughed upon my enthusiasm 😉

    1988

    My brother and I found a chance to leave home for a few days; we decided to visit friends in Kassel. Back in these days, HiFi was cheaper in Germany. I already owned some vinyl and needed a turntable of my own. My brother – bastard! – wanted his first ever CD (shall I mention that he was the one to buy a DCC recorder in the days when Minidiscs hadn’t made the race? – another story to tell another time ;))

    After a week of fun, we returned home on a long motorway ride with a Technics CD Player (which still exists, too) and a Thorens turntable (the most basic you could get) in the booth of our Golf II — — and were caught on the border. In the end, that stuff cost us the same amount as in Austria – BUT Hey!: I had my first own turntable.

    I later exchanged that one for a Technics – as it had more semi-automated controls (still sad, that the Thorens vanished into dust in some cellar).

    Compact Disc

    I commenced “Communication Engineering and Electronics” in autumn 1988. And one of my first classroom presentations was about compact disc technology. I was amazed by what technology could do with music! In the same year, “Flim & the BBs” recorded their album “Tricycle” fully digital – “DDD”, the formular for pure technical sound – still my favourite HiFi testing album of all times; while purist discussions in those years circulated around the inability of CDs to reproduce overtone harmonics and the warmth of an analogue vinyl recording.

    In the years after, I moved most of my vinyl collection into a well cared archive. Some time between 1995 and 1999 I recall to own my first computer-based CD recorder. Some of my self-recorded – digitalized – vinyl CD-copies date from that time. And some vinyl of earlier times vanished in those days as I didn’t deem’em important …

    Over time, my CD collection grow to a decent 1800 pieces store. And I admit, that I am proud of some stuff that can be found in there …

    Rooting

    I never understood about the capabilities of a DJ until around 2014 I discovered Freestyle Furioso! Dedicated to vinyl with a feel for the right tune to come … made me think of my polymere at home – still lingering in some cupboards …

    And then – on occasion 2016 – I received that previously mentioned “disc”; one of the best presents I ever got … so – well: I had to find a way to play it — and therefore purchased the 3rd turntable ever in my entire life!

    The only thing I didn’t expect was the overwhelming joyous shiver down my spine, when the first tone elapsed of it …

     

     

    Published by:
  • SmileIT.DE

    Nach der Cloud: Was kommt jetzt?

    Transkript meiner Keynote zum Post-Cloudalen Zeitalter. Slides hier zum Download.

    Haben Sie sich schon immer mal gefragt, wo die Cloud begraben liegt? Bittesehr! Hier ist sie 😉

    Cloud-Grave

    This is where the Cloud is burried!

    Ich habe mich ja schon in einigen Publikationen mit der Sinnlosigkeit auseinandergesetzt, Cloud Computing zu diskutieren – nicht, weil die Cloud tatsächlich tot wäre (einen Talk damals im Jahr 2014 damit zu beginnen, war schon etwas – nunja – “frech”), sondern weil sie so allgegenwärtig ist, wie das Internet ansich – darüber diskutieren wir ja auch nicht mehr. Aber sehen wir uns die Geschichte einmal etwas genauer an:

    Cloud Timeline 2016

    Wussten Sie, dass Cloud Computing eigentlich auf das Jahr 1999 zurück geht? Damals wurde Salesforce gegründet – und hat mit Guerilla-Marketing die traditionelle CRM Szene ordentlich aufgemischt; der Erfolg gibt ihnen, denke ich, heute recht. In den Jahren danach wurde es dann doch erstmal etwas ruhiger – eine Zeit lang; doch ab etwa 2006 schossen Cloud Anbieter aus dem Nichts mit damals wohl noch ungeahnter Geschwindigkeit in die Höhe.

    Heute diskutieren wir nicht mehr, ob es die Cloud gibt, sondern wie wir sie in unsere IT Strategie bestmöglich integrieren, welche Services wir sinnvoll nutzen können oder wie wir multiple Services und unser on-premise Rechenzentrum miteinander verbinden und effizient managen (RightScale hat da übrigens einen sehr vielversprechenden Ansatz mit deren Cloud Management Plattform). Und während man früher Logo-Landkarten für COTS (Commercial Off The Shelf) herzeigen konnte, zeigt man sie jetzt – wie hier – für z.B. SaaS.

    Cloud-SaaS-Logos

    SaaS Logos

    Ich möchte noch einmal einen Schritt zurück gehen – auf die sattsam bekannte NIST Special Publication 800-145 – die Definition von Cloud Computing.

    Cloud Computing: 5 essential characteristics

    Cloud Computing: 5 essential characteristics

    Dort lauten – wie im Bild oben dargelegt – die 5 essentiellen Charakteristiken einer Cloud:

    • On-demand self-service: Ich bekomme also etwas genau dann, wenn ich es brauche, und dann sofort
    • Broad network access: Ich erreiche den Service mittels eines hoch-performanten Netzwerkes – wir sprechen hier von der Provider-Anbindung, nicht notwendigerweise von meinem Mobil-Telefon in den Bergen
    • Resource pooling: Die Ressourcen der Cloud sind derart gemanaged, dass ein effizientes Miteinander mehrerer Konsumenten der Cloud möglich ist, und jeder immer das bekommt, was er gerade benötigt
    • Rapid elasticity: Dadurch sind Services so effizient skalierbar, dass sie sich elastisch an den Bedarf anpassen
    • Measured: Jeder Konsum eines Services wird exakt gemessen und der Konsum nachvollziehbar dem Nutzer berichtet

    Sollten Sie in Ihrem Rechenzentrum – in Ihrer IT – ein Service haben, das die Geschäftsprozesse Ihres Unternehmens nach diesen Gesichtspunkten abbildet, dann haben Sie de facto eine Cloud. Überlegen Sie an dieser Stelle kurz: Haben Sie eine Cloud? Haben Sie ein Cloud Service? Mehrere? Woher? Selbst gebaut? Integriert? … ?

    Wir brauchen über die Existenz von Cloud Computing in allen unseren Geschäftsanwendung nicht mehr sprechen (Sie würden sich übrigens wundern, welche Firmen in Österreich beispielsweise vom eigenen Exchange-Server bereits auf Office365 gewechselt sind …)

    Reden wir also darüber, was nun auf uns zukommt!

    Und da haben Analysten schon vor Jahren – etwa 2013 beginnend – Modelle vorgestellt, die die Cloud in einen größeren Gesamtzusammenhang setzen. Bei IDC hieß das Konzept “The Third Platform” – bei Gartner hieß es “The Nexus of Forces”.

    The 3rd Platform (Source: IDC)

    The 3rd Platform (Source: IDC)

    Es gibt bestimmt noch andere. Eines ist allen diesen Konzepten gemeinsam: Sie postulieren die nächste Evolution in der IT und erklären diese durch das Zusammenwirken von 4 Kräften:

    • Cloud Computing
    • Mobility
    • Social Business / Social Media
    • und BigData/Analytics

    Während das alles durchaus korrekt sein mag, glaube ich doch, dass diese Konzepte allesamt einen originären Fehler haben: Cloud Computing ist nicht Teil des Ganzen sondern die inherente Basis des gesamten Modells:

    Cloud Computing as a basis to the 3rd Platform

    Cloud Computing as a basis to the 3rd Platform

    Lassen Sie mich an Hand der anderen drei Paradigmen ausführen, warum das so ist.

    1: Social Transformation

    Social Transformation - from Profiles to Data Feeds

    Social Transformation – from Profiles to Data Feeds

    Das Bild oben zeigt wie Facebook 2005 und 2011 ausgesehen hat und wie es heute aussieht. Sie sehen, dass der Fokus am Beginn auf dem Benutzer und dessen Profil, dessen Eigenschaften, dessen Vorlieben lag. Mark Zuckerberg wollte ursprünglich einfach die ganze Welt miteinander verbinden. Dass sich so eine bahnbrechende Idee – wenn sie funktioniert – natürlich perfekt durch Werbung auf der betreffenden Plattform finanzieren lässt, liegt auf der Hand (2011 schon deutlich sichtbar). Heute können Sie viel mehr mit dem sozialen Netzwerk und Ihren eigenen Informationen tun: Sie können sie zu zielgerichteter Information für andere Systeme oder Gruppen von Menschen nutzbar machen: Wenn 1000 Menschen an einer sonst flüssig befahrbaren Verkehrsader jammern, dass sie im Stau stehen, wird das wohl stimmen, und es lässt sich unter Umständen aus den “Social Feeds” der Autofahrer ableiten, was auf der betreffenden Strecke gerade schief läuft.

    Und wo ist hier die Cloud? Unter der Plattform “Facebook” selbst, die in einem streng nach Cloud-Elastizitäts-Merkmalen aufgebauten Rechenzentrum läuft, sowie in angeschlossenen Data Lakes, die in der Lage sind, nicht nur derartige Informationen in großem Maß aufzunehmen, sondern eben auch in entsprechend kurzer Zeit auszuwerten.

    Womit wir beim Thema …

    2: Data Transformation

    angelangt wären. Dazu – wie schon bereits in meinem mittlerweile doch schon ein paar Monate alten Whitepaper “The Next Big Thing” ausgeführt – die meiner Meinung nach bislang beste Definition von BigData:

    “BigData summarizes the legal, social, technology, application and business dimension of the fact that through applications being consumed … a vast amount of information is generated and needs to be managed and efficiently used”

    Ich habe zur Vereinfachung des Prinzips und seiner Auswirkungen versucht, auf einen Blick darzustellen, wie zukünftig mit Daten umzugehen ist:

    BigData Transformation - from ETL to ELT

    BigData Transformation – from ETL to ELT

    Machen Sie sich keine Gedanken mehr am Beginn, was Sie am Ende mit den Daten anfangen wollen; sehen Sie, dass Sie der Daten habhaft werden, die sie für Ihr Geschäft benötigen könnten. In welcher Form (in welchem “Format”) auch immer. Eine Transformation zum Zwecke intelligenter Verknüpfung und Auswertung kann später folgen. Wir haben das früher so nicht gemacht, weil wir garnicht die Rechenleistungen bereit stellen hätten können, die nötig sind, um verschieden vorliegende Daten in Echtzeit zu konsolidieren und zu aggregieren. Und selbst ohne diese Fähigkeit waren unsere DWH-Systeme mitunter unwartbare Moloche, oder?

    Die Cloud als Basis einer modernen BigData Architektur erlaubt die Elastizität und ad-hoc Rechenleistung, wenn sie zu Analyse-Zwecken benötigt wird.

    Übrigens: Das bedeutet keineswegs, dass Sie sich gar keine Gedanken machen sollen, was Sie mit den mühevoll gesammelten Daten anfangen können – ich glaube sogar, dass diese Überlegung essentiell ist, um BigData strategisch effizient zu nutzen; ich glaube nur, dass diese Überlegung nicht mehr am Anfang stehen muss. Und dass dem so ist, ermöglicht uns Cloud Computing.

    3: Mobile Transformation

    Das ist einfach. Dazu reichen die folgenden beiden Bilder:

    Old Mobile Phone

    A very old mobile phone – some years maybe …

     

    Mobile Payment - Mobile Banking

    Mobile Payment – Mobile Banking

    Zuerst ein Handy, das manche vielleicht noch kennen (es ist, sagen wir, etwa 10 Jahre alt, vielleicht ein bisschen mehr) – dann ein “etwas” Neueres mit implantierter Bankomatkarte (geht in Österreich seit Anfang Juni). Wo da die Cloud ist? Unter dem AppStore für die benötigten Mobile Apps, unter den Backend-Systemen für die Verknüpfung von Services, unter den Services selbst, die in Container-Technologie elastisch auf Benutzeranforderungen reagieren, …

    Sie sehen also, Cloud Computing ist nicht eine “Force” in einem “Nexus”, sondern die Basis-Technologie schlechthin, die ein Zusammenwirken der anderen 3 Kräfte im 3rd-Platform-Modell überhaupt erst möglich macht.

    Und was durch dieses Zusammenwirken erst möglich wird, lässt sich immer noch am Besten durch den Begriff

    “Digital Business”

    beschreiben. Ich möchte mich hier gar nicht mehr lang mit Begrifflichkeiten aufhalten (im oben erwähnten White Paper gibt es dazu bereits einiges nachzulesen, und über die Zeit haben sich – wie immer bei solch hochveränderlichen, innovativen Themen – Myriaden von “gscheiten” Menschen damit aufgehalten, was wie genannt werden darf oder muss (erinnern Sie sich nur an die viel-zitierte Behauptung, Industrie 4.0 dürfe nur in der deutschen Sprache verwendet werden, weil es eine Digitalisierungs-Initiative Deutschlands wäre).

    Entscheidend ist nicht die Begrifflichkeit sondern das, worum es eigentlich geht: Eine Verbindung von Menschen, Systemen und Endgeräten (Dingen, Devices, Gadgets, …). Sich vor Augen zu führen, welche Möglichkeiten diese Verbindung, wenn intelligent umgesetzt, für uns bringt, bringt Digitalisierung überhaupt erst in Bewegung. In unsern Köpfen, unseren Innovationen – letztlich in unseren Unternehmen und im täglichen Leben.

    Im Whitepaper “The Next Big Thing” erzähle ich am Ende ein paar kleine Geschichten; Szenarien, die illustrieren, was durch Digitale Transformation denkbar wird. Mittlerweile sind wir viel weiter als in diesen Geschichten. Teilweise sind die skizzierten Szenarien Realität, teilweise sind ganz neue Szenarien entstanden.

    Connected Cars – Ist das heute Realität?

    BMW-connected

    BMW (2014) with connected-car information panel

    Vielleicht noch nicht überall. Aber das hier gezeigte Bild entstammt einem Artikel aus 2014. Heute haben alle modernen Fahrzeuge eine In-Vehicle-Plattform, die es ermöglicht, von außen Informationen in das Fahrzeug einzuspielen. An der Nutzbarmachung dieser Möglichkeit für den modernen Verkehr wird gerade gearbeitet.

    Oder SmartCity?

    Sanatander ist eine von vielen Städten rund um den Erdball, in dem Digitalisierung und die Digitale Transformation Realität geworden sind. Während jedoch beispielsweise in Amsterdam auf der “Beacon Mile” gerade mal ein paar Information an vorbei”gehende” Smartphones verteilt werden können, hat Santander sein gesamtes City Management – von öffentlichem Verkehr, über Taxi, Luftqualität, Beleuchtung, Müllabfuhr, … und vieles mehr auf Digitalisierungs-Paradigmen im oben erwähnten Sinne (Mensch – System – Device) umgestellt. Hier ein Film, der die disruptive Veränderung dieser Initiative für Santander näher erklärt:

    Und im Hintergrund arbeitet eine Infrastructure Cloud, die die Integration all dieser Prozesse ermöglicht.

    Übrigens: 2 Beispiele aus Wien:

    1. Die SmartCity Strategie der Stadt Wien verfolgt genau die selben Ziele wie Santander
    2. Und in Wien Neubau arbeitet ein Unternehmen gemeinsam mit der Stadt an einer in Kürze produktiv gehenden Multi-Mobilitäts-App, die es ermöglicht, aus mehreren Verkehrsangeboten das für die jeweilige Route beste zu wählen. Können Sie heute bereits als Labor-App nutzen. Laden Sie sich’s einfach vom AppStore runter; sie heißt “WienMobil LAB”.

     

    Und wo ist die Cloud jetzt?

    Broadband Affordability 2014

    Cost of Broadband Subscription as a Percentage of Average Yearly Income, 2014

    Allgemein werden für all diese Digitalen Transformationen 4 Treiber genannt:

    • Breit verfügbare Internet-Verbindung (siehe Bild, oben)
    • Hohe Akzeptanz des Mobil-Telefons, eigentlich des Smartphones
    • Niedrige Kosten von Sensoren
    • Und in großem Maß verfügbare Rechenleistung

    Da letzteres (nämlich: Rechenleistung) selbstredend in einem Cloud-Modell bereit gestellt wird, beantwortet sich die Frage nach der Allgegenwärtigkeit von Cloud Computing eigentlich von selbst, oder?

    Security & Privacy

    Security - Privacy - Control - Multi Tenancy

    Security – Privacy – Control – Multi Tenancy

    Abschließend noch zwei Wort an alle, die die Digitale Transformation als (persönliche oder unternehmerische) Gefahr empfinden: “Vergessen Sie’s!”

    Warum?

    Nun – lassen Sie mich das mit einer kleinen Geschichte aus den Anfangszeiten von Cloud Computing in Mitteleuropa beantworten: Im Jahr 2009 war ich zu einer Konferenz als Speaker eingeladen, in welcher Microsoft und Siemens die Potentiale von Cloud Computing gemeinsam zum Thema gemacht und diskutiert haben; damals hat ein sonst großartiger Kollege von Microsoft Multi-Mandanten-Fähigkeit leichtfertiger Weise mit Datensicherheit und Verschlüsselung verwechselt. Ohne den Irrtum auszubügeln, schlitterte sein Talk in eine Diskussion um die Unmöglichkeit, Cloud im Industrie-Bereich anzuwenden, weil es doch unmöglich sei, die eigene Unternehmens-IP vor der Konkurrenz zu schützen. Diese Art der Diskussion blieb uns über Jahre auf einschlägigen Events erhalten. Hat sie die Cloud aufhalten können? Nein.

    Wenn Sie möchten, diskutieren wir gerne in weiterer Folge die Elemente

    • Sicherheit
    • Privatsphäre
    • Daten-Kontrolle
    • und Multi-Mandanten-Fähigkeit

    Doch tun wir es bitte auf inkludierender Basis. Schließen wir neue Chancen, neue Dienstleistungen, Alltagserleichterungen nicht aus, weil wir Angst vor einer Verletzung obiger Werte haben, sondern schließen wir diese oben genannten Überlegungen mit ein in die Möglichkeiten, die sich uns auftun – und tun wir das auf Basis der Forderung nach größerer Transparenz!

    Wenn ich weiß, was von wem wofür mit meinen Daten gemacht wird, dann werde ich sie gerne – kontrolliert – bereit stellen; weil ich nämlich dadurch einen Vorteil erfahre – in meinen eigenen Prozessen, in meinem eigenen beruflichen und privaten Alltag!

    Published by:
  • Mein Passwort

    Innerhalb weniger Stunden – 2 Hacker-Fälle in meinem Freundeskreis. In beiden Fällen – vermutet! – ein zu einfaches Passwort.

    In beiden Fällen habe ich den Betroffenen mit einem (mir wenig epochal erscheinenden) Tip unter die Arme gegriffen. In beiden Fällen waren die Betroffenen sehr dankbar dafür. Und daher schreib ich den Tip nun auf, damit ich in Zukunft nur noch den Link versenden muss 😉

    Sicheres Passwort ohne Passwort-Safe

    Wenn Sie jemand sind, der ein Tool zur Verwaltung der vielen verschiedenen Passwörter, die man so braucht, verwendet, dann endet dieser Artikel für Sie hier. Ich war aus mir unerfindlichen Gründen nie ein Fan von derartigen Tools (und habe keinerlei Wertung dafür).

    Mein System kommt ohne Password-Safe aus. Es basiert auf dem Prinzip, dass Passwörter nicht kompliziert sein müssen. Sie müssen nur

    • ausreichend variantenreich sein, um nicht erraten werden zu können
    • kurz genug sein, um es beim Tippen einfach zu haben
    • und leider – auf Grund dummer Passwortregeln diverser Plattformen – immer auch ein paar Zahlen oder Sonderzeichen enthalten, damit sie akzeptiert werden

    Daraus ergeben sich nun zwei simple Möglichkeiten:

    1. Wählen Sie Ihren Lieblingssatz. Eine Aussage, die Sie inspiriert, die Sie nie vergessen würden, die etwas Besonderes für Sie birgt (beschränken Sie’s wenn möglich auf 6-8 Wörter). Schreiben Sie sie nieder in der Schreibweise, die Ihnen angenehm ist (den Zettel werfen Sie später weg ;)). Nun nehmen Sie die Anfangsbuchstaben der Wörter des Satzes; alle in der korrekten Schreibweise (in aller Regel haben Sie nun ein Gemisch aus großen und kleinen Anfangsbuchstaben).
    2. Wählen Sie Ihr Lieblingswort. Einfach ein Wort, an das Sie sich immer ganz von selbst erinnern würden.

    Mit beiden Varianten erhalten Sie am Ende einen Buchstabensalat, den niemand außer Ihnen weiß.

    Und jetzt die Ziffern

    An irgendeiner Stelle in dem Buchstabensalat müssen Sie nun eine Ziffernkombination einfügen, die Sie sich eben so leicht merken können, wie den Buchstabensalat (z.B: das Geburtsdatum Ihres Ameisenbären). Wenig Erinnerungsvermögen erfordert das Einfügen am Beginn oder am Ende. In der Mitte geht dann gut, wenn das Wort oder der Satz eine natürliche, leicht zu merkende Bruchstelle hat (z.B. “CISV inspires action -Bruchstelle- for a more just and peaceful World”).

    Sonderzeichen

    Manch ein System verlangt leider, dass ein Passwort auch Sonderzeichen enthält (also z.B. ! $%&[?). Wären Computer benutzende Menschen von Anfang an dieser Anleitung hier gefolgt, würden wir uns das ersparen, denn dann wüssten Programmierer, dass niemand z.B. “abcdefg” oder “qweasd” als Passwort benutzte. Nachdem es immer noch derartige Kreationen gibt, müssen Systeme leider nach wie vor ein wenig mehr Sicherheit verlangen. Wenn Sie also dazu genötigt werden, ein Sonderzeichen in Ihrem Passwort zu verwenden, dann tauschen Sie einfach z.B. alle Vorkommen von “1” gegen ein “!” aus. Fertig,

    Variantenreich

    Bis hier her ist unser Passwort zwar schwer erratbar; wir verwenden aber leider immer noch ein und das selbe Passwort für alle Systeme, für welche wir eines brauchen.

    Das können wir ändern (dank @katharinakanns, der ich diesen Teil des Tips verdanke): Jede Plattform (z.B. Internet-Seite, Online-Shop, Kunden-Portal, eMail-System, …) hat eine Adresse; normalerweise eine Internet-Adresse oder URL (z.B.: www.amazon.de). Wir picken uns aus dieser Adresse einen Buchstaben heraus:

    • den ersten (einfach)
    • den letzten (auch nicht gerade “rocket-science”)
    • den 4. (weil wir 4 Kinder haben z.B.)
    • oder irgendeinen anderen

    Im Beispiel oben wäre das das “z” – das “www.” lassen wir weg  (Groß- oder Kleinschreibung dürfen Sie entscheiden – nur, bitte: bleiben Sie dabei!). Den Buchtaben (es dürfen natürlich auch gern zwei sein) fügen wir an einer geeigneten Stelle ein – und damit ist das Passwort-Unikat fertig!

    Beispiel

    Nehmen wir an, wir wären absolut begeistert von der Kinder- und Jugendlichen-Organisation “CISV” (falls Sie wissen möchten, was das ist – hier gibt es ein paar Informationen: http://www.cisv.org). Daraus ergäbe sich folgendes Passwort-Beispiel:

    • Leitsatz: Building global Friendship
    • Buchstaben: BgF
    • Ziffern – das Gründungsjahr von CISV: 1951
    • Buchstabe der jeweiligen Webadresse: letzter
    • Stelle im Passwort: Anfang

    Das Passwort für AMAZON.DE wäre daher also: n1951BgF oder n!951BgF

    Und nun nennen Sie mir den BOT der da draufkommen soll …

    Sie hingegen merken sich das durch die persönliche, emotionale Bindung vermutlich ewig! Auch ohne Tool …

     

    {feature image courtesy of IDR-Welle}

    Published by:
  • Drum prüfe, wer sich ewig bindet!

    Chello UPC rühmt sich mit schnellem Internet. Hyper-schnellem Internet. Leider bleibt das – zumindest in den Wiener Innenbezirken – meist eine Mähr’! Da nun aber gerade in diesen Breitengraden die Alternativen mangels “blizznet” et al. rar sind, bzw. LTE auf Grund der Bebauungsdichte auch keine besseren Ergebnisse liefert, ist man der miserablen Servicequalität des Quasi-Monopolisten auf Gedeih und Verderb ausgeliefert.

    Oder?

    Nein, ist man nicht. Denn eine garantierte Bandbreite muss nun mal eingehalten werden; wird sie das nicht, hat der Kunde laut VKI Gewährleistungsanspruch (siehe Artikel derstandard.at vom 25 Mai d.J.)

    Das Silberschneider-Script am Mac in 4 Schritten

    Der oben erwähnte Artikel liefert ein “Speed-Test” Skript mit, welches periodisch die Internet-Geschwindigkeit prüft. Idealerweise konfiguriert man Skript und cronjob auf einem dauerhaft laufenden Linux Server (dafür wurde es maßgeschneidert). Es geht aber – mit ein paar Adaptionen auch am Mac. Hier die Infos:

    1. Download und Install

    Den Dauerläufer speedtest_cron gibts auf GitLab! Er bedient sich eines speedtest-cli Skripts von “Sivel” (github download). Beides herunterladen und in einem eigenen neuen Ordner unter ~/Library ablegen (~ ist: user directory – z.B. /<main-hd>/Users/<mein-name>/). Die speedtest-cli Dateien kommen dabei in das vorbereitete Unterverzeichnis “speedtest_cli” (Anm.: speedtest-cli ist mit Apache-Lizenz freigegeben; speedtest_cron ist komplett frei verwendbar – ohne Gewähr).

    2. Pfade anpassen

    speedtest_cron ist per README Instruktionen perfekt für die Anpassung vorbereitet; das Einzige, was man im Prinzip tun muss, ist die Pfade auf die realen Gegebenheiten am eigenen Gerät anzupassen – im Skript sind das alle Stellen mit /path/to/this/folder

    3. Network-Interface adaptieren

    Die Netzwerkkarten werden unter Linux mit eth0..n nummeriert. Unter Mac OS X heißen sie en0..n! Da das cron-Skript versucht, die Quelle des Speed-Tests (Source IP Adresse) mit zu berücksichtigen, muss man diesen Teil adaptieren. Dazu die folgende Zeile in der Datei speedtest_cron ändern:

    /<mein-pfad-zum-speedtest>/speedtest_cli/speedtest_cli.py --share --server 5351 --simple --source `/sbin/ifconfig eth0 | grep 'inet addr:' | cut -d: -f2 | awk '{ print $1}'` > /<mein-pfad-zum-speedtest>/speedtests/$DATE.log

    Der wesentliche Teil beginnt bei “/sbin/ifconfig …“. ifconfig liefert – auch unter OS X – die Netzwerkkonfiguration aller Interfaces. eth0 existiert nicht, daher kommt es zu einem Fehler. Unter Verwendung von en0 gibts ein Ergebnis, das allerdings anders als unter Linux formatiert ist; daher läuft auch das nachfolgende rausschneiden der IP-Adresse anders. Der adaptierte Befehl sieht folgendermaßen aus:

    /<mein-pfad-zum-speedtest>/speedtest_cli/speedtest_cli.py --share --server 5351 --simple --source `/sbin/ifconfig en0 | grep 'inet' | cut -d: -f2 | awk '{ print $2}'` > /<mein-pfad-zum-speedtest>/speedtests/$DATE.log
    • ifconfig en0 liefert die Daten zur ersten Netzwerkkarte im Gerät (darf auch gerne eine andere sein, wenn über diese getestet werden soll)
    • grep ‘inet’ liefert aus den gesamten Daten von ifconfig jenen Teil, in dem die IP-Adresse steht
    • cut -d: -f2 schneidet alles vor einem Doppelpunkt weg und liefert nur noch das zweite Feld in der Zeile (könnte man unter OS X auch weglassen)
    • awk ‘{ print $2}’ liefert das zweite Feld in der “inet” Zeile – die IP-Adresse

    Und diese wird dann als Quelle dem speedtest Skript vorgeworfen.

    4: Cron Job erstellen

    Das ist am Mac zugegeben etwas lästig. crontab wird nicht empfohlen, stattdessen laufen unter OS X alle zeitgesteuerten Jobs mit launchd. Die Zeit-Parametrierung lässt aber keine Syntax “laufe alle 10 Minuten zwischen X und Y Uhr” zu. Das muss leider mittels mehrerer identer Parameterzeilen angegeben werden:

    <dict><key>Hour</key><integer>8</integer><key>Minute</key><integer>30</integer></dict>

    Die Zeile oben sagt im Prinzip: Starte den Job um 8:30; und eine derartige Zeile kommt nun so oft mit so vielen Uhrzeiten in die launchd-Konfigurationsdatei, wie man Abläufe von speedtest_cron haben will. Etwas mühsam, aber gut … wem das zu nervig ist, einfach das LaunchControl UI verwenden (hier zum Download).

    Also – launchd Einrichtung step-by-step:

    • …plist-Datei beliebigen Namens erstellen
    • Ablegen im Verzeichnis ~/Library/LaunchAgents (hier liegen unter OS X alle benutzerdefinierten launchd Job-Konfigurationen)
    • Label (beliebig): <key>Label</key><string>local.speedtest</string>
    • Auszuführendes Programm: <key>Program</key><string>/<mein-pfad-zum-speedtest>/speedtest_cron</string>
    • Startzeitpunkte festlegen mit dem Schlüssel <key>StartCalendarInterval</key>
    • Oben erwähnte Zeile mehrfach einfügen je nach Wunsch

    Eine vollständige sehr gute launchd-Anleitung gibts hier: http://launchd.info/

    4a: Start ohne Reboot

    launchd Jobs starten beim booten oder beim Login; alternativ kann man mittels Kommando

    launchctl load

    den Job direkt manuell starten. Ab dann läuft der Speedtest gem. eingestellten Zeitparametern und legt jeweils eine Datei im Unterverzeichnis ~/Library/<mein-pfad-zum-speedtest>/speedtests ab.

    Diese können allesamt auf Wunsch noch mit dem mitgelieferten Skript speedcsv in eine CSV-Datei überführt werden.

    Und die kann man dann freudig UPC als Nachweis für deren schlechte Service-Qualität vorlegen, um zumindest etwas weniger zu zahlen – in der Hoffnung, dass besonders viele solcher Nachweise den Provider endlich dazu verführen, seine Leistungen im Wiener Innenstadtbereich nachhaltig zu verbessern.

     

    Published by:
  • Vicious Circle into the Past

    We are on the edge of an – as businessinsider.com recently called it – exploding era: The IoT Era. An interesting info graphic tells us stunning figures of a bright future (at least when it comes to investment and sales; see the full picture further below or in the article).

    The info graphic in fact stresses the usual numbers (billions of devices, $ trillion of ROI) and draws the following simple explanation of the ecosystem:

    IoT and BigData Analysis (info graphic clip)

    A simple explanation of IoT and BigData Analysis

    Devices are receiving requests to send data, in return they do send data and data gets analyzed. Period.

    Of course, this falls short of any system integration or business strategy aspect of the IoT evolution. But there’s more of a problem with this (and other similar) views onto IoT. In order to understand that, let us have a bullet point look at the mentioned domains and their relation with IoT (second part of the graph; I am intentionally omitting all numbers):

    • Manufactoring: smart sensors use increases
    • Transportation: connected cars on advance
    • Defense: more drones used
    • Agriculture: more soil sensors for measurements
    • Infrastructure, City: spending on IoT systems increases
    • Retail: more beacons used
    • Logistics: tracking chips usage increases
    • Banking: more teller-assist ATMs
    • Mining: IoT systems increase on extraction sites
    • Insurance (the worst assessment): IoT system will disrupt insurances (surprise me!)
    • Home: more homes will be connected to the internet
    • Food Services: majority of IoT systems will be digital signs
    • Utilities: more smart meter installations
    • Hospitality: room control, connected TVs, beacons
    • Healthcare: this paragraph even contents itself with saying what devices can do (collect data, automate processes, be hacked ?)
    • Smart Buildings: IoT devices will affect how buildings are run (no! really?)

    All of these assessments fall short of any qualification of either which data is being produced, collected and processed and for which purpose.

    And then – at the very beginning – the info graphic lists 4 barriers to IoT market adoption:

    • Security concerns
    • Privacy concerns
    • Implementation problems
    • Technological fragmentation

    BusinessInsider, with this you have become part of the problem (as so many others already have): Just like in the old days of cloud commencement, the most discussed topics are security and privacy – because it is easy to grasp, yet difficult to explain, what the real threat would possibly be.

    Let us do ourselves a favour and stop stressing the mere fact that devices will provide data for processing and analysis (as well as more sophisticated integration into backend ERP, by the way). That is a no-brainer.

    Let us start talking about “which”, “what for” and “how to show”! Thereby security and privacy will become and advantage for IoT and the digital transformation. Transparency remains the only way of dealing with that challenge, because – just as with cloud – those concerns will ultimately not hinder adoption anyway!

     

    The IoT Era will explode (BusinessInsider Info Graphic)

    The IoT Era will explode (BusinessInsider Info Graphic)

    {feature image from www.thedigitallife.com}

    Published by:
  • Automation and Orchestration – a Conclusion

    This post is part of the "Automation-Orchestration" architecture series. Posts of this series together comprise a whitepaper on Automation and Orchestration for Innovative IT-aaS Architectures.

     

    Automation and Orchestration are core capabilities in any IT landscape.

    Traditionally, there’d be classical on-premise IT, comprised of multiple enterprise applications, (partly) based on old-style architecture patterns like file exchange, asynchronous time-boxed export/import scenarios and historic file formats.

    At the same time, the era of the Cloud hype has come to an end in a way that Cloud is ubiquitous; it is as present as the Internet as such has been for years, and the descendants of Cloud – mobile, social, IoT – are forming the nexus for the new era of Digital Business.

    For enterprises, this means an ever-increasing pace of innovation and a constant advance of business models and business processes. As this paper has outlined, automation and orchestration solutions form the core for IT landscapes to efficiently support businesses in their striving for constant innovation.

    Let’s once again repeat the key findings of this paper:

    • Traditional “old style” integration capabilities – such as: file transfer, object orientation or audit readiness – remain key criteria even for a cloud-ready automation platform.
    • In an era where cloud has become a commodity, just like the internet as such, service centered IT landscapes demand for a maximum of scalability and adaptability as well as multi-tenancy in order to be able to create a service-oriented ecosystem for the advancement of the businesses using it.
    • Security, maximum availability, and centralized management and control are fundamental necessities for transforming an IT environment into an integrated service center supporting business expansion, transformation, and growth.
    • Service orchestration might be the ultimate goal to achieve for an IT landscape, but system orchestration is a first step towards creating an abstraction layer between basic IT systems and business-oriented IT-services.

    Therefore, for IT leaders, choosing the right automation and orchestration solution to support the business efficiently might be the majorly crucial decision to either become a differentiator and true innovation leader or (just) remain the head of a solid – yet: commodity – enterprise IT.

    The CIO of the future is a Chief Innovation (rather than “Information”) Officer – and Automation and Orchestration both build the core basis for innovation. What to look at in getting to the right make-or-buy decision was the main requirement for this paper.

     

    Published by:
  • How to StartUp inside an Enterprise

    I’ve been following Ruxit for quite some time now. In 2014, I first considered them for the Cloud delivery framework we were to create. Later – during another project – I elaborated on a comparison I did between Ruxit and newRelic; I was convinced by their “need to know” approach to monitor large diverse application landscapes.

    Recently they added Docker Monitoring into their portfolio and expanded support for highly dynamic infrastructures; here’s a great webinar on that (be sure to watch closely on the live demos – compelling).

    But let’s – for once – let aside the technical masterpieces in their development; let’s have a look on their strategic procession:

    Dynatrace – the mothership – has been a well-known player in the monitoring field for years. I am working for quite some customers who leverage Dynatrace’s capabilities. I would not hesitate to call them a well-established enterprise. Especially in the field of cloud, well established enterprises tend to leak a certain elasticity in order to get their X-aaS initiatives to really lift-off; examples are manifold: Canopy failed eventually (my 2 cents; some may see that differently), IBM took a long time to differentiate their cloud from the core business, … some others still market their cloud endeavours sideways their core business – not for the better.

    And then – last week – I received Ruxit’s eMail announcing “Ruxit grows up… announcing Dynatrace Ruxit!“, officially sent by “Bernd Greifeneder | Founder and CTO”. I was expecting that eMail; in the webinar mentioned before, slides were already branded “Dynatrace Ruxit”, and the question I raised on this, was answered expectedly, that from a successful startup-like endeavour they would now commence their move back into the parent company.

    Comprehensible.

    Because that is precisely what a disruptive endeavour inside a well-established company should look like: Greifeneder was obviously given the trust and money to ramp-up a totally new kind of business alongside Dynatrace’s core capabilities. I have long lost any doubts, that Ruxit created a new way of technologically and methodically doing things in Monitoring: In a container-based elastic cloud environment, there’s no need anymore to know about each and every entity; the only importance is to keep things alright for endusers – and when this is not the case, let admins quickly find the problem, and nothing else.

    What – though – really baffled me was the rigorous way of pushing their technology into the market: I used to run a test account for running a few tests there and then for my projects. Whenever I logged in, something new had been deployed. Releases happened on an amazingly regular basis – DevOps style 100%. There is no way of doing this within established development processes and traditional on-premise release management. One may be able to derive traditional releases from DevOps-like continuous delivery – but not vice versa.

    Bottom line: Greifeneder obviously had the possibility, the ability and the right people to do things in a totally different way from the mothership’s processes. I, of course, do not have insight in how things were really setup within Dynatrace – but last week they took their baby back into “mother’s bosom”, and in the cloud business – I’d argue – that does not happen when the baby isn’t ready to live on its own.

    Respect!

    Enterprise cloud and digitalisation endeavours may get their learnings from Dynatrace Ruxit. Wishing you a sunny future, Dynatrace Monitoring Cloud!

     

    Published by:
  • System Orchestrator Architecture

    This post is part of the "Automation-Orchestration" architecture series. Posts of this series together comprise a whitepaper on Automation and Orchestration for Innovative IT-aaS Architectures.

     

    This final chapter addresses architecture components for typical system orchestrators; comparing these with the blueprints for high-grade innovative automation solutions mentioned previously in this paper will reveal the close resemblance between automation and system orchestration patterns in a very obvious way.

    The first figure below is system deployment architecture diagram describing the main physical components for a system orchestrator:

    System Orchestration Deployment Architecture

    System Orchestration Deployment Architecture

    Note, that:

    1. the database normally needs to be setup in a clustered mode for high availability. Most orchestrator solutions do rely fully on the database (at least at design time).
    2. the Management Server’s deployment architecture is depending on availability requirements for management and control.
    3. the Runtime server nodes should be highly distributed (ideally geographically dispersed). The better this is supported by the product architecture the more reliable orchestration will support IT operations.
    4. the Web service deployment is depending on availability and web service API needs (product and requirement dependent)

    Logical architecture

    The logical architecture builds on the previous description of the deployment architecture and outlines the different building blocks of the orchestration solution. The logical architecture diagram is depicted in the following figure:

    System Orchestration Logical Architecture

    System Orchestration Logical Architecture

    Notes to “logical architecture” figure:

    1. The Orchestrator DB holds runtime and design time orchestration flows, action packs, activities, plugins, logs, …
    2. Management Server controls access to orchestration artefacts
    3. Runtime Server provides execution environment for orchestration flows
    4. Orchestration designer (backend) provides environment for creation of orchestration flows using artefacts from the database (depending on specific product architecture the designer and management components could be integrated)
    5. Web Service exposes the Orchestrator’s functionality to external consumers (ideally via REST)
    6. Action packs or plugins are introduced through installation at the design time (normally integrated into the DB)
    7. The Orchestrator’s admin console is ideally implemented as web service, hence accessible via browser
    8. The Design Client UI could either be web-based or a dedicated client application to be installed locally and using a specific protocol for backend communication

    Of course, these building blocks can vary from product to product. However, what remains crucial to successful orchestration operations (more or less in the same way as with automation) is to have lightweight, scalable runtime components capable of supporting a small scale, low footprint deployment equally efficient to a large scale, multi sight, highly distributed orchestration solution.

     

    Published by:
  • Student_in der Soziologie gesucht!

    Nein – nicht, wofür du jetzt glaubst …

    Sonntagnachmittag. Der gestrige Tag wurde von der Generation… (was sind die Damen und Herren jetzt eigentlich; für “Z” sind die doch auch schon zu jung, oder?) … an den Computern verbracht. Leage-of-Legends, Minecraft, oder was das Internet halt sonst noch so an Spielen hergibt. In Konsequenz dessen gab es heute also einen “Frische Luft”-Zwang-Tag. Weitestgehend Internet-frei (außer zur Navigation am Stadtwanderweg Nr. 4) und ohne der Chance, dem mit einem vagen “ich treff mich später noch mit Freunden; ich bleib da” auszuweichen.

    Der Drittgeborene (14) schaffte es dann doch noch erfolgreich, sich vorzeitig vom gemeinschaftlichen Ausflug zu verabschieden. Hätte er sein Smartphone etwas selbstsicherer als Navigator zu verwenden vermocht, wäre ihm das lange vor dem Anstieg an den höchsten Punkt des Satzberges gelungen.

    Mich stimmen derartige Situationen zweifach – völlig konträr zueinander – arg nachdenklich:

    1. Was ist so schlimm am Rausgehen?
    2. Warum ist ein Smartphone für einen 14-jährigen immer noch nur ein Tipp-o-phon?

    Im Volksschulalter

    waren mein Bruder und ich mit 3 Kindern aus der Siedlung befreundet. Unsere Eltern trennten streng in Schulgewand und Alltagsgewand. Deshalb hielt uns nach den Hausaufgaben noch das für uns überaus lästige Umziehen vom Treffen mit den geliebten Freizeitkumpanen ab. Wir haben damals Lokal-Geschichte geschrieben auf unseren Ausflügen in die dörfischen Umlande. Der Beweis unserer kindlichen Kraft, in der Lage zu sein, ein Wehr zu öffnen, endete für den örtlichen Forellenzüchter mit dem Verlust seines Fischschwarms – sehr zum Leidwesen unserer Eltern, die das entschuldigen mussten. Dass wir danach was zu hören bekamen, verstand sich von selbst. Tags darauf waren wir dennoch wieder draußen.

    Gut – mag man einwenden: Damals gab es weder Computer (zumindest nicht im privaten Haushalt) noch Smartphones. Aber es gab Bücher. Fernsehen (hie und da). Matchbox-Autos, die man stundenlang unter dem Heizkörper in Reih und Glied aufstellen konnte, und Fußball-Sammelkarten. Gründe genug, das Haus nicht zu verlassen; und oft genug entschieden wir uns für sie. Uns rauszukriegen aus den eigenen vier Wänden war dennoch recht einfach und unsere Eltern hatten mehr Stress damit, was wir nun wieder anstellten, als damit, dass wir zu wenig oder zu spät selbständig werden würden.

    Man mag auch einwenden, dass es wohl etwas leichter war, in der ländlichen Umgebung meiner Kindheitsheimat nicht verloren zu gehen, als in einer Großstadt. Ich meine hingegen, dieses vermeiden heute intelligente, hilfreiche Smartphone-Funktionen doch völlig ohne weiteres. Kinder lernen heute in dem Alter, in dem ich Fische unerlaubterweise in ihre Freiheit entließ, wie man ein Smartphone (zum Spielen) benutzt. Da könnte man doch annehmen, dass sie dann im gymnasialen Alter wissen, wie sie es dazu benutzen können, ihren frischluft-fanatischen Eltern zu entkommen.

    Oder ist es vielmehr vielleicht so,

    dass Eltern heutzutage die Computer-Verliebtheit ihrer Kleinen doch ein wenig genießen? Meint vielleicht manche Mutter, dass ein Nachmittag (10-12 Stunden) Strategiespielen am Kastl sicherer ist, als mit irgendwelchen Freunden, die man vielleicht garnicht so genau kennt, irgendwo in der Großstadt herumzuhängen?

    Ein Teil meiner spärlichen Freizeit ist bekanntermaßen mit der Arbeit für eine mir aus zig-1000 Gründen lieb gewordene Organisation – http://www.cisv.org – gefüllt. Wir bieten Kindern ab dem Alter von 11 Jahren an, ihre Ferien mit Gleichaltrigen aus der ganzen Welt zu verbringen und zu lernen, wie die so leben. Für die 11jährigen dauert unser Programm 4 Wochen; das hat gute Gründe in der Zeit, die Kinder in dem Alter brauchen, um sich gegenseitig so richtig zu vertrauen. Wenn ich Eltern davon erzähle, höre und spüre ich die Begeisterung, die sie meinen Schilderungen entgegenbringen – bis zu dem Moment, an dem ich “4 Wochen” sage. Dann weiten sich oft genug die Augen mit Schrecken und es folgt eine Antwort à la “Nein, 4 Wochen – das ist für mein Kind viel zu lange! Das kann es noch nicht!”

    Und wenn ich so über uns, über die Generation nach mir, über die nächste danach, … nachdenke, dann scheint es mir fast, als könnte man eine Rückwärtsbewegung des Abnabelns beobachten: Mir konnte es nicht früh und schnell genug von zu Hause weg gehen – sei es mit 11 auf den Feldweg oder zum Fischwehr oder dann mit 18 nach Wien. Unser Drittgeborener definiert soziale Interaktion über den Chat in League-of-Legends. Und wenn wir – was wir noch nie getan haben – dann doch mal das Internet abdrehten, dann sagt er, er verlöre alle seine Freunde.

    Ich suche eine/n Soziolog*in,

    die Interesse hat, das Phänomen Smartphone/Computer/Internetspiel im Zusammenhang mit dem Loslassen in der Kindererziehung zu untersuchen. Was verändert sich da? Haben diese Devices Einfluss auf den Freiheitsdrang unserer Kinder? Welchen? Und welchen haben sie einen auf das Sicherheitsdenken heutiger Eltern? Sind die vielleicht froh darüber, dass die lieben Kleinen lieber Zeit in ihrem hochsicheren, hochdigitalisierten Kinderzimmer als auf der Straße oder im Park verbringen?

    Mich würde das wissenschaftlich interessieren? Ehrlich! Und ich biete hiermit Unterstützung an …! Ehrlich! Wer mag?

     

    Published by:
%d bloggers like this: