donderdag 26 februari 2015

Unsupervised learning with unstructured data, why it changes everything

Recently I red an interview with Demis Hassabis from Deepmind, a company that Google
acquired.  The co-founder mentioned in that interview his main focus, "It’s also called unsupervised learning— you just give it data and it learns by itself what to do with it, what the structure is, what the insights are. We are only interested in that kind of AI.". The progress that has been made is published in Nature , read The Verge for the non-scientific version. The exciting thing as described in the mentioned articles is that the system does not "know" what a certain Atari game was. It let itself be trained by playing where a high(er) score was a reward. Just as with humans. In that way the system learned itself to play and win most old Atari games. With technology things becoming exciting when they become "general-purpose" , when you can use one system for different tasks and assignments. The PC is the ultimate example but also the smartphone. In software terms Deepmind/Google are trying to build a system that can learn, adapt and handle multiple situations. This first step is small, this application can only learn to play Atari games. But the next steps are more advanced selflearning systems in other domains like medicine, finance, logistics etc. After that systems will start combining their learning experience in various domains.
Google Now is an obvious candidate for this technology, it will become a system that learns to "play" us, let us buy things and let us behave in a way that Google wants us to. The most negative scenario. Formulated in positive terms it will be able to perfectly anticipate our behaviour, assist us in the best way possible, provide services which perfectly satisfy our needs. All of the above is not new for people who like to be informed about this subject. However for the majority of politicians, managers, citizens etc. a computer program is still something that can only do what it is programmed to do. It's behaviour and actions are predetermined, controllable and auditable.Our laws, checks and balances in society with regard to technology are based on that premiss. If that premiss is no longer true. It changes everything. There should be more discussion about this in society and politics. Instead people focus on the rather limited subject of privacy and personal data. That's the reason i keep stressing the importance of this and related subjects in my blogs. I am in good company with several technology guru's telling us the same thing. However in parliament and politics it's still too quiet.

donderdag 12 februari 2015

If Google becomes our digital assistant, regulating it becomes necessary.

The dominant company in search is further developing it's product it's famous for. In the beginning it was the possibility to search with keywords on the web. You would get the "best" results based on algorithms such as Pagerank among others. Also we would receive some advertising/commercial links with our query. But time has passed and what started as something relatively simple may be evolving into something we could call a digital assistant with "artificial intelligence". In human terms an entity I can talk with, ask questions in normal language, who knows what I like, who I have met, where I have been etcetera . Google is quite open that this is their goal. People like Kurzweil and others have been hired , companies with AI technology have been acquired to accomplish this. If you observe Google you can see that they are getting there. With Google Now, improvements in Google Translate, added intelligence to Google Hangouts and so on.
With normal search there is already discussion about how Google ranks the results. In the described future scenario objectivity, transparancy and accountability becomes even more complex to realise. Let alone to monitor it as a "user". Google, Apple but also other companies who will offer this kind of functionality will be tempted to nudge us, to steer our behaviour in certain directions. The complexity of artificial intelligence but also the principal "black box" character of technology used, like artificial neural networks , makes it difficult or sometimes impossible to example the inner workings. Therefore oversight , checks and balances are harder to accomplish. They are needed however. Companies are driven by profit not by the common or individual interest of people. In my view there are oversight platforms / frameworks necessary which are non-profit, where people, companies and government participate in, who can make rules and regulations with regard to these digital agents or assistants. Rules about how they should work, procedures for protecting, privacy and how oversight and auditing is possible. Also regulation by government alone is possible. This is however less desirable in my view. Because trust in government is not that high. Also it's something in which people, companies and government should have a common goal. To let this promising technology improve our lives while at the same time guard are principal values.
And can "the market" not take care of this ? Personally I don't think so. This market seems a "winner takes all" environment where maybe 2-3 dominant players will emerge. Not a vibrant market with many players changing position is my guess.

Picture source:
"Colored neural network" by Glosser.ca - Own work, Derivative of File:Artificial neural network.svg. Licensed under CC BY-SA 3.0 via Wikimedia Commons.

maandag 29 december 2014

2015 , doorbraak van machine leren en artificiële intelligentie ?

Computers leren steeds beter lezen, schrijven, begrijpen en analyseren. In deze TED-video van Jeremy Howard wordt die ontwikkeling beschreven. In 2014 hebben we volgens MIT al een groot aantal doorbraken op het gebied van artificiële intelligentie plaatsgevonden. Ook GigaOM beschrijft in een blog dat we hierbij naar de spreekwoordelijke top van een ijsberg kijken. Naar mijn verwachting wordt 2015 het jaar waar in die ontwikkelingen echt zichtbaar worden. Jeremy Howard beschrijft in zijn TED-talk de fase waarin we momenteel zitten met bijgevoegde figuur. De capaciteiten van software/hardware op het gebied van artificiële intelligentie, machine learning en deeplearning nemen exponentieel toe. Als ook de hoeveelheid data (big data) waar gebruik van gemaakt kan worden. Hierbij is de vraag of er daadwerkelijk sprake is van machine "intelligentie" niet eens echt van belang. Wel het gegeven dat machines/computers het overgrote deel van de taken die nu door mensen worden verricht op termijn beter, sneller en goedkoper kunnen doen. Of het nu de advocaat, hersenchirurg, accountant, secretaresse of ambtenaar betreft. Natuurlijk zal dit nog de nodige tijd in beslag nemen maar als het zover is (5-10 jaar), zal er sprake zijn van een snelle, revolutionaire en dramatische ontwikkeling. Een goed denkvoorbeeld is de arts die een diagnose moet stellen. Stel je een expertsysteem voor dat zelflerend is en dat net zo goed als een menselijke arts diagnose kan stellen en is verbonden met alle andere soortgelijke systemen wereldwijd (Enlitic is een voorbeeld). Dan kan een groot deel van de beroepsgroep wat anders gaan doen. Slechts een klein deel zal nodig zijn om de zelflerende medische systemen te optimaliseren, te verbeteren en te ondersteunen. Hetzelfde geldt voor andere beroepsgroepen. Opvallend genoeg lijken beroepen die momenteel minder worden gewaardeerd (financieel) zoals het plaatsen van een tuinhek, het vervangen van een leiding in een huis etc. een stuk minder kwetsbaar.

Deze ontwikkeling betekent niet dat mensen niet meer nodig zijn. Vaak zullen systemen in nauwe samenwerking met mensen functioneren. Waarbij ze elkaar kunnen aanvullen en versterken. Wel is het in mijn ogen erg waarschijnlijk dat er voor veel minder mensen werk is. Want om bij het medische voorbeeld te blijven, slechts een fractie van alle huisartsen en chirurgen is nodig vergeleken met het huidige aantal. Een soortgelijke ontwikkeling is voor andere beroepsgroepen ook te verwachten. Op het niveau van organisaties en bedrijven vraagt het om het opnieuw nadenken over de strategische positionering en een herontwerp van de bedrijfsprocessen. Voor overheid en politiek roept het nog fundamentelere vragen op over economie, werkgelegenheid en maatschappij.
"The second machine age" gaat echt beginnen.

Bovenstaande is geen nieuw en ook geen origineel verhaal. Maar ik herhaal het maar eens omdat ik het gevoel heb dat het besef nog te weinig is doorgedrongen welke fundamentele veranderingen ons te wachten staan. Actie is nodig om hier op een goede manier op in te spelen. De grote onzekerheid is hierbij niet of beschreven ontwikkeling zal plaatsvinden maar wel hoe snel en drastisch. Dat blijft gokken.


zondag 30 november 2014

Informatieveiligheid, een "Blue or Red Pill" moment.

Sinds de jaren negentig zijn overheden systematisch bezig spyware te ontwikkelen die de volgende kenmerken heeft.
- vrijwel ondetecteerbaar voor gewone burgers
- gebruik makend van nog niet gepubliceerde kwetsbaarheden in bestaande operating systemen en software
- in staat al onze met internet verbonden apparatuur te bedienen, gegevens op te slaan etc.

Stuxnet was het eerste grote verhaal op spyware gebied. Als je daar over leest en extrapoleert dat naar het heden dan slaat de angst je om het hart. Regin bevestigt dat overheden beschikken over spyware met genoemde mogelijkheden en daar ook in ruime mate gebruik van maken. Wat kun je daar als individuele burger aan doen ?  Niets ? Of zijn er mogelijkheden om je hieraan te ontrekken zonder dat je moet leven als een kluizenaar zonder internet, Netflix, Google+, Facebook, Twitter etc.
We kunnen de blauwe pil nemen, ons zelf in slaap sussen met de gedachte dat we toch niets te verbergen hebben en overheden nu en in de toekomst altijd te vertrouwen zijn.
Of we nemen de rode pil, we beklimmen de spreekwoordelijke barricade en komen in actie. De vraag is dan wel hoe ? Voor me zelf heb ik beide pillen nog op tafel liggen.

Opvallend vind ik dat politiek zich vooral richt op incidenten rondom informatieveiligheid. Een datalek, een kwetsbaarheid in een systeem en dergelijke. De fundamentele vraag wat genoemde toegenomen mogelijkheden betekenen voor de overheid en haar relatie met de burger worden nauwelijks geadresseerd. Het is ook een lastige discussie omdat de overheid altijd tegelijk twee rollen vervult. Ze beschermt haar onderdanen tegen dreigingen van binnenuit en van buitenaf, controleert en handhaaft wet- en regelgeving. Anderzijds moet ze grondrechten en persoonlijke levenssfeer van burgers beschermen. Je kunt je afvragen of de "checks and balances" op dit vlak nog in voldoende mate aanwezig zijn.


(gebruikte foto: W. Carter, uit dit wikipedia artikel: http://en.wikipedia.org/wiki/Red_pill_and_blue_pill  )

dinsdag 26 augustus 2014

Mens en Machine bij overheidsdienstverlening

We zitten midden in een grote verandering met betrekking tot overheidsdienstverlening waarvan velen zich nog onvoldoende bewust zijn in mijn ogen. Een open deur is dat informatietechnologie werk- en dienstverleningsprocessen in de overheid veranderen. Tevens zal iedereen beamen dat die ontwikkeling snel en exponentieel verloopt. Maar daarbij komen de consequenties van die ontwikkeling en de maatschappelijke vragen die daarbij naar voren komen nog onvoldoende in beeld wat mij betreft. Voor een beschrijving van deze revolutie is het boek "The second machine age" een aanrader. Voor een wat provocerender beeld bekijk de video "Humans need not apply" .
Laten we een herkenbaar dienstverleningsscenario nemen. Een burger komt bij een (digitaal) loket met betrekking tot een vraag. Er worden gegevens verzameld door de betreffende ambtenaar als ook aangeleverd door de "cliënt" en vervolgens komt de betreffende ambtenaar tot een afweging. Met betrekking tot de vraag of de cliënt recht heeft op voorzieningen, welke voorzieningen het beste bij hem/haar passen, resulterend in concrete dienstverlening of product. In dit proces wordt de ambtenaar bijgestaan door technologie. Eerst was het de ganzenveer, later de typemachine en nog later de computer.Waarbij die computer vervolgens via netwerken continu in verbinding staat met andere computers en gegevensbestanden.
De verhouding tussen de mens en machine in het beschreven dienstverleningsproces is aan het veranderen. Er zijn mensen die geloven dat op termijn machines mensen geheel kunnen vervangen voor economisch relevante taken. Zoals beschreven in het essay Smarter than us the rise of machine intelligence. Anderen zien een toekomst waarbij machines altijd ondersteunend aan mensen blijven en nooit hun rol zullen overnemen.
In ieder geval is er sprake van twee soorten "intelligentie" bij dienstverleningsprocessen (plaatje ontleend aan Reinventing discovery van Michael Nielsen).

Data gedreven intelligentie (A) kent als grondstof veelal "Big Data". Samen met nieuwe analysetechnieken is er veel meer als voorheen mogelijk. Zowel in het analyseren van data achteraf, het ondersteunen bij het nemen van beslissingen, het voorspellen van gedrag en het beïnvloeden van gedrag van mensen. Er zijn ook gebieden waar menselijke intelligentie het primaat heeft en eigenlijk als enige kan functioneren (C). Tenslotte zijn er velden waarbij er sprake is van combinaties van menselijke en machine intelligentie (B).
Zelfs vanuit het meest conservatieve scenario is duidelijk dat de mogelijkheden van de data gedreven intelligentie exponentieel zullen toenemen. De menselijke intelligentie maakt naar verhouding nauwelijks tot geen voortgang. De invloed van data gedreven intelligentie op overheidsdienstverlening en besluitvorming zal dus alleen maar toenemen. In de vorm van co-productie (B) of besluitvorming door machines (A).
De vraag ontstaat dan hoe belangrijk we de menselijke factor vinden in besluitvorming en dienstverlening. Moet die er altijd zijn ongeacht of machines het zelfstandig beter en goedkoper kunnen dan in combinatie met mensen ? Hoe leggen we verantwoording af ten aanzien van de gebruikte algoritmes die machines gebruiken in ondersteunende danwel beslissende rol ? En zo zijn er nog veel meer fundamentele vragen te formuleren. De technologie stelt ons in staat beter te analyseren, te voorspellen en te beïnvloeden maar daarbij hoort ook extra verantwoordelijkheid.
Probleem hierbij is dat we besluitvorming ondersteund door menselijke intelligentie goed in wetgeving hebben kunnen vatten. Voor besluitvorming met behulp van data gedreven intelligentie is dat nog minder het geval. Sommige analysetechnieken kennen vanuit hun aard een enigszins "blackbox" benadering (neurale netwerken, voorspellende modellen) of er worden veel variabelen tegelijk geanalyseerd. Iets waar machines goed in zijn maar mensen niet. Wet/regelgeving is wellicht niet het beste instrument om de belangen van burgers in detail te borgen maar tegelijk moet er wel een manier zijn waardoor burgers kennis kunnen nemen van gebruikte algoritmes/technieken en invloed kunnen uitoefenen op de afwegingen die daarbij worden gemaakt.
Het oplossen van dit vraagstuk begint wat mij betreft bij het politiek en maatschappelijk agenderen. Dat gebeurt nog te weinig in mijn ogen. Veel discussies in politiek en media hebben een "80-er" jaren uitstraling waarbij informatiesystemen puur ondersteunend zijn aan besluitvorming en handelen.
Er is een instrumentarium nodig met juridische en organisatorische elementen om de positie van de burger in de toekomstige informatiesamenleving te borgen. Dat ontwikkelen kost tijd en aangezien de technologie zich met exponentieel tempo ontwikkelt, kunnen we daar maar beter snel mee beginnen.

donderdag 27 februari 2014

Privacy & Informatiebeveiliging ? Neem vooral zelf het heft in handen.

We worden overspoeld met schandalen, zowel "normale" datadiefstal maar ook de diverse Snowden onthullingen maken dat er een gevoel lijkt te ontstaan dat we weerloos zijn en niets meer helpt tegen de afbraak van privacy. Volgens mij ligt de oplossing erin dat mensen zichzelf meer bewust zijn van informatiebeveiliging en privacy. Daarbij ook zelf maatregelen nemen en zich niet afhankelijk maken van overheid of bedrijfsleven.
Dat begint met het besef dat zowel informatiebeveiliging als privacy geen absolute waarden zijn. Het is altijd een afweging. Daarbij bestaat 100% veilig niet en dat is ook geen enkel probleem. Het gaat er vooral om dat je kosten/inspanning van een inbreuk zo groot mogelijk maakt in verhouding tot de gegevens die je wilt afschermen/beschermen. Zo zijn er prima gratis tools voor Android voorhanden om encrypted telefoon gesprekken te voeren zoals Redphone  maar ook om veilig tekstberichten te sturen zoals TextSecure . Voor encryptie van je persoonlijke data opslag is Truecrypt een aanrader. Het Tor Project biedt uitstekende tools om anoniem te browsen. Ook kun je zelf bijdragen aan genoemd netwerk door een Tor Relay te installeren.
Dit zijn slechts voorbeelden, er is een scala van mogelijkheden. Belangrijk in mijn ogen is dat je kiest voor een Open Source tool met een community van redelijke omvang. Zoals Bruce Schneier ook al betoogd heeft, closed source toepassingen moet je op veiligheidsgebied niet willen. Immers je vertrouwt de leverancier dan op zijn/haar blauwe ogen en er is geen externe controle mogelijk. Zelf met genoemde tools geëxperimenteerd, ze zijn goed bruikbaar maar tegelijk niet altijd zo makkelijk in gebruik als wat je gewend bent. Maar dat is de prijs die je betaalt als je wat vertrouwelijker wilt omgaan met je gegevens.
Het wachten is verder op het moment dat ook grote aanbieders zoals Google , Facebook en andere, beveiliging meer gaan integreren in hun cloudoplossingen. Daarbij dan wel op een manier die transparant is en te controleren. Op sommige vlakken wordt op dit punt al een begin gemaakt. Maar er is bijvoorbeeld wel een incognito modus in chrome maar geen "secure" modus in google hangouts met encryptie, zonder logging e.d. De vraag is of dat soort functionaliteiten gaan komen. Ik hoop van wel want tools zoals genoemd worden nog maar door een paar procent van de gebruikers toegepast. Van massale adoptie is helaas nog geen sprake.

donderdag 26 december 2013

Google, it's time to expand the Data Liberation Front to the Privacy Protection Front.

A  not very well known initiative within Google is the so-called Data Liberation Front. Their mission statement:, "Users should be able to control the data they store in any of Google's products.  Our team's goal is to make it easier to move data in and out.". A worthy goal which has led to better possibilities to remove your data from Google's services. Also know as Google Take Out. In my view their mission could be expanded to not only controlling your data in Google products but also to be in more control about your privacy and how your data is used. If you use google services all your data is used to improve those services and predict/anticipate your desires, actions and purchases. People get more and more uncomfortable about that lately. Including their parliaments, at least in Europe. This is reinforced by all the Snowden/NSA fall-out which make clear that data inside Google is not that safe and well protected as it could be. Google has clear business interest that people actually trust them with their data and also trust Google as a company. This trust could be reinforced by adding some privacy enhancing services. These would silence the critics but also hurt their competitors.

  • Create a separate Google Apps variant  for people who value their privacy and security. With the possibility for local storage, using your own (open source) algorithms for encryption, use of Tor etc. This could be free but it could also be for a monthly fee.
  • Expand on the current Google Dashboard with an additional category: "How are my data used to improve google services and ads" , with the possibilities to opt-out of certain uses of your data.
  • Incorporate more privacy and security features in current products. For example offering encrypted gmail or encrypted storage in Google Drive, make the "incognito mode" in Chrome better accessible/visible etc.
  • Start offering some new more secure services like peer-2-peer chat like Bit Torrent chat, ofcourse this will not be interesting for the majority of customers but offering it has added value.
  • Seek more co-operation with organisations outside Google like the Electronic Frontier Foundation to let them evaluate and review the various efforts.
This all fits in the "no-evil" motto from Google but it also makes perfect business sense. Protecting your customer base, keeping their trust in a time when some governments can not be trusted. It will contribute to profits.