With Pepper or Poison?

It’s not particularly new trend. The companies have existed for 20-25 years, or more. Some have just begun, yesterday. I’m talking about “all-round IT service companies”. A typical company describes itself as “providing anything related to information technology”, and that is very close to the actual strategy. The older ones have good ties with hardware providers, in fact they have seen hardware shops come and go. The younger ones got sleeker ties and outfit.

How would one go to describe the field? IT outsourcing is technologically wide, but basically it’s about taking care of all the requirements that a client might have regarding work which involves computers, software and networks. From purchasing, installation, maintenance to all the after-sales activities including recycling and data migration. Most IT shops provide the whole palette, perhaps excluding some specialties like servers, or expensive/complex network devices.

They are competiting on a very densely populated minefield. A slight surprise is that even though PC and other technology has completely blown out of proportions what comes to diversity, still in reality there aren’t that many practical solutions. Why? Because systems have to be interconnected with partners’ networks and devices. One can’t choose an arbitrary mix of devices, even though theoretically it could be feasible. In practise – it just doesn’t make sense, costwise.

Every company should have a somewhat unique strategy and an idea of how that will be translated into practical operations.

Good companies really are worth their nickel to the customer. They patch the potholes of the digital road ahead; they chart out unknown territory, apply pressure to possible lazy upstream customer service, serve the tools and some of the trade knowhow in a pleasant way. Good companies do a little extra; they nurse their clients, prevent data catastrophies, and catch anyone who even tries to fall.

Bad ones – well, we’ve seen them: excuses, inaction, bad pricing, next-to criminal policies, communication that doesn’t work, etc. Often it’s the customer driving the B-company with a whip, not the B’s giving positive advise and options to the customer (as it should be). The best a client can get with B’s is an overpriced, medium-quality service. What’s really surprising to me is that the B-segment exists also in the Big Companies world; it’s not limited to SMBs at all. On the other hand also A’s exist within the Big fish.

The interesting fact is that both A and B type of companies probably set out to the voyage with sound principles, vision, and energy. But B-class boys somehow lost their interest, became indifferent and plain greedy. They acknowledged every possibility to milk the cow, and willingly did so. All means accepted: The Jargon Attack; Technology Lock-In; closed source, secrets, obfuscation. If I’d be in a bad mood I’d call these measures manipulation – that close they go.

Big trends in technology are an interesting double-edged sword. A -companies use trends to anticipate future threats, and start building firm structures to serve their customers better. They do research and invest in all the work that goes to fulfilling their scenario. B -companies use trend knowledge to build strangling loops, because they know that for some time now their customers and perhaps even their rival’s customers don’t have a choice but to jump in. It’s like building bridges for a beautiful capricorn running towards a river, vs. building a trap.

I wish I had more to tell you, more than just the experience and gut feeling to help you select well. But perhaps the article has shown some examples that help you in the work of choosing a good partner. Trust in the field – in other people who are also making their selection. Trust in customer testimony (especially when it’s being present in somewhere else than the company’s own media). Unfortunately I think financial figures do not convey much real information about the friendliness and efficiency of a IT outsourcing company. They do have some value though. Seldom a B survives past 10 years, when its angel investor-backed money runs out and scorched customers have already left the boat.


My first BEMER microcirculation massage

Animation of hemoglobin t-r state transformation
Image via Wikipedia

I had the opportunity to listen to an hour of introduction to a massage device called BEMER. The operating principle is quite simple: non-invasively accelerate the blood cells through using a pulsing magnetic field. Because blood heme (hemoglobin) contains iron (Fe), this is an atom that a magnetic field can exert force on.

The BEMER was invented by scientific and medical research people. The company is based in Liechtenstein.

I’m a raw amateur, but with some understanding of principles of physics, chemistry, and electromagnetism. Thus when I enter any opening ceremony, or private introduction to a new medical apparatus or method, I’m quite interested in how sound principles the mechanism relies on. That doesn’t mean that I would dismiss all “non-western” practises, but it means that I do my best to objectively cover, and avoid full hoaxes.

BEMER seems to be a very valid thing. It is been used in clinical practise, in hospitals, and by professionals who wouldn’t put so much money into some hypothetical thing that wouldn’t work. German court of law awarded the company’s claims a positive

The principle in fact is simple. By using a certain shape of a signal, the device can penetrate tissue into proper depth, and affect the target area. BEMER targets blood flow. Why doesn’t it shake, warm up, or affect non-blood material? Because of the fact that electromagnetism is effective only to substances that have a real or apparent magnetic (di)pole in them. In other words, if a substance is composed of completely symmetrically from atoms, and as we know, an atom has an internal charge of zero, then that kind of matter is not within “reach” for a magnetic field.

What about blood? Why is it affected by a certain type of signal? Blood has as part of its constituent the substance called hemoglobin, which consists of four subunits, each having one single Fe atom (iron) in them. What I believe is that the iron presence is one of the key factors that can be used in order to specifically narrow down the affect of the BEMER signal. Note, I am not a physicists or certified MD, thus this statement above is my best educated guess.

The microcirculation boosting effect does bring changes to tissues connected with the circulation, as there’s more oxygen carried to the tissues. Tissues use oxygen as a central “fuel” to enable their biochemical reactions.  Thus the BEMER therapy is said to have a positive clinical effect via selective microcirculation boosting.

Bloodflow is one the most fundamental aspects of the human body. Principally blood carries oxygen in, and waste products out of the body. The clinical usage scenarios of BEMER are:

  • restoring and enhancing the body’s own immune system
  • accelerate or decelarate bloodflow with “pinpoint accuracy”
  • open microvascular clogs

For further references:

Dr. med R. Klopp (Berlin)

Dr. Wolf A. Kafka


Ubiquity, sir!

fluffy alter deckPalasin katsomaan, miten Firefoxin leirillä menee. Itse asiassa pitäisi puhua Mozillasta — Mozillahan on ns. 503c non profit, eli voittoa tuottamaton järjestö, jonka kotipaikka on Yhdysvallat. Sen siipien alla on kehitelty standardeihin tarkasti nojaavaa selainta, ja monia muitakin nettikansalaiselle tuikitärkeitä projekteja. Teknologiakelkka etenee anarkistisen epäjärjestyksessä, mutta on poikinut todella mielenkiintoisia tuotteita. Parhaiten maailmalla tunnetaan varmasti www-selain Firefox.

Parasta Firefoxin suunnalla tuntuu olevan lisäosa
Ubiquity, joka on sen eräänlainen sisäinen komentotulkki. Asentamalla tuon palikan Firefoxiin siihen tulee aika voimakkaat ja täysin muokattavat makrot, joita voi ohjelmoida Javascriptilla.

Minä, vannoutunut Chrome-käyttäjä, hämäännyin Ubiquity -hovipalvelijan tarjoamasta elämän helpotuksesta niin paljon, että olen jo toista päivää työskennellyt tulikettu kainalossa. Eipä silti, syyt miksi olen valinnut vakituiseksi selaimeksi Chromen, olivat hienon hienoja: FF vie hieman enemmän resursseja, on käsittääkseni hieman Chromea hitaampi, ja yliheitto 3.x versiokelkasta 4.0 -versioon tiputti taas ikävästi monia lisäosia käytöstä.

Ubiquity on hauska! Se tarjoaa valmiiksi hyödyllistä sisältöä, mahdollisuuden nikkaroida, ja tuntuu luoneen myös asialle dedikoituneen harrastelijaporukan. Teknologia on tosin myös kuulemma hieman yskinyt, ja pysytellyt pitkään kehittäjille tarkoitetussa ohjelmointirajapinnan versiossa 0.5

En tiedä, mutta uskoisin että Ubiquityn lisäosien lähdekritiikissä kannattaa olla tarkkana, koska nuo komentolisäkkeet saavat selaimen sisällä paljon oikeuksia, ja niiden oikeudet eivät pysähdy pelkästään selaimeen; suomeksi, jos laitat vääriä lisäosia, voi olla että virität koneestasi herkullisen zombien tai muuten vain vähennät tietoturvaa. Mutta tämäntyyppinen valinnan vaikeus liittyy nykyään melkein kaikkeen – ainoastaan Apple-kansalaiset voivat tuudittautua väärässä turvallisuudentunteessa.

Näin Ubiquityä käytetään

Asenna Ubiquity. [Työkalut, Lisäosat, Hae laajennuksia]

Kun se on asennettuna selaimessasi, paina ctrl+space yhtäaikaa. Tämä avaa uuden ikkunan, jossa voit sekä laukoa loitsuja että tutustua teknologiaan. help -komento antaa lisäapuja. Jopa suomenkielisiä apusivuja on kirjoitettu, mikä on todella kiva poikkeus yleensä kovin englanninkielisessä maailmassa.

Lyhimmät omat Ubiquity-komennot ovat vain neljän rivin mittaisia. Tälla saa aikaiseksi ikkunan, jonne tulostetaan rivi tekstiä. Ohjelmien monimutkaisuutta ja voimaa ei sinänsä rajoita mikään. Mozilla-organisaation ympärille on kehittynyt myös paljon hienoja valmiita koodimoduleita, joita voi käyttää hyväkseen.

Idea uusien komentojen lataamiseen on lainattu syötteiden maailmasta: komento voidaan ’tilata’. Komennothan sinänsä ovat pohjimmiltaan vain Javascriptaa, eli tekstitiedostoja. Jos et halua tilata päivityksiä, voit vain kerran ladata uuden komennon.

Tuleepa twiserreltyä enemmän, kun se on helppoa. Painan ctrl+space, ja kirjoitan ‘tw viesti’. Ubiquityn periaatteisiin kuuluu, että se tunnistaa aina lyhyimmästä mahdollisesta tyngästä komennot.

tw Suukko : lähettää twitter viestin

check weather : avaa paikallisen sääsivun selaimen tabiin

check google cal : avaa kalenterin uuteen tabiin


Anatomy of an operating system

There must have been time, when you most likely would’ve received some major antidotes for talking about operating systems that could fit into a mobile phone. Radio phones used analog technology, and they were like tuned musical instruments, only that these devices operated on a specified band of electromagnetic spectrum.

The early mobile phones were set up at the factory, and then used in unmodified form for their lifetime. The things you could change were ringing tone, and your address book contents.

The phones certainly had no “disk drives”, no code pointer, stack pointer, internal memory, or the kind. At least this is how it looked to the surface – for the end user. The phones indeed had already quite sophisticated operating systems, but they were closed-source and hidden from prying eyes, running stealth within the phone. Just like nowadays you can’t modify the operating system of a washing machine… Because there’s simply no compelling reason.

The OS’s role was to handle things as complicated as multitasking; the early WAP browsers, which were supposed to bring mobile Internet to European countries, probably contained tens of thousands of lines of code.

It would be most interesting to know more about the early history of mobile operating systems. I had a British Psion Revo pocket computer, which had EPOC operating system on it. These little computers were called organizers, or PDA (personal digital assistant). In 1986 Psion released the Organizer II, which marked a milestone in the march of PDAs.

Later on, Palm Computing and many others created a variety of these devices. They almost invariably lacked proper data connectivity, which perhaps made their era shorter.

Without slick network access, you had to use all kinds of docking solutions to wind up the PDA with a PC – and your data would not be synchronized in real time, nor was sending or receiving possible when the user was away from those “PC access points”. It wasn’t very beautiful at all. We were still talking about sales figures like 1 million units per year.

Later on, this EPOC would be the core on top of which Symbian was built. Nokia, in 2001, had produced its flagship communicator 9210 which ran Symbian OS (which was a rename from previous EPOC32). Symbian grew, measured by units shipped. In 2007, there were 126 million units sold by end of March, 2007. Nokia was also active on “non-smart” phones, ie. ordinary mobile phones. It lost focus in the smartphone sector, partially because of the steep learning curve of new programming developers trying to enter Symbian world. In addition, Nokia kept the development environment semi-closed, requiring participants to register for a fee.

Now, years later, in 2011 as Microsoft and Nokia have decided to use Microsoft’s Windows Mobile Phone (WMP) platform as Nokia’s future smartphone operating system, the Symbian was given to a consulting company called Accenture, along with some 3000 developers from Nokia. One good question which has been circulating in media is: What happens to Symbian? And the developers? Even though the sentiment is generally a bit gloomy, we might have surprises along the way. As Finns say; “Älä heitä kirvestä jorpakkoon, vaan tee ilmaveivi.”


Listojen puhdistus, I

The Turing memorial plaque in Sackville Park
Image via Wikipedia

Alan Mathison Turing oli matemaattinen nero, joka tutki monenlaisia asioita. Parhaiten hänet muistetaan toisen maailmansodan aikaisesta työstä. Turing oli mukana ryhmässä, joka mursi saksalaisten Enigma-salakirjoituslaitteen. Turingin asemapaikkana oli Brittein Government Code and Cypher School.

Turing määritteli tietojenkäsittelytieteeseen keskeisiä termejä ja ongelmia, aika paljon ennen kuin mainstream-tietojenkäsittelyn katsotaan alkaneen 1960-luvulla transistorin ja tietokonetekniikan miniatyrisoitumisen myötä. Tässä on itse asiassa mielenkiintoinen esimerkki siitä, että matematiikkaan perustuvat järjestelmät eivät sinänsä muutu juurikaan ajan saatossa, koska matematiikassa uusien teoreemojen todistuksen julkisuus- ja hyväksymisvaatimuksena on tiukat todistettavuuteen ja universaaliuteen liittyvät ehdot.

Turingin kuuluisimpia “pelejä” tai testejä on Turing-testi. Se testaa koneen kykyä tuottaa matkimalla ihmismäistä käytöstä. Mutta miksi Turingin ongelmat ovat keskeisiä nykyaikana?

Sain käsiini erään projektin myötä valtavan käyttäjätietokannan. Suurin osa noista käyttäjistä on tuulesta temmattuja, tietokoneella tuotettuja. Niiden ainoa tarkoitus on olla aseina sille, joka on tunnukset luonut. Jokainen haamukäyttäjä on kuin tehokas sprayaaja, valmiina töhrimään verkkoon omia jälkiään. Käyttäjiä “animoidaan” koodilla, eli esimerkiksi kymmeniätuhansia käyttäjiä voidaan samanaikaisesti ohjata tekemään asioita alkuperäisen omistajan puolesta. Jäljet johtavat usein juoksuhiekkaan, jos käyttäjän historiaa aletaan tutkia.

Nykyaikaiset blogit ovat monesti kuin käyttöjärjestelmiä: näennäisen helppouden alla on kuitenkin monimutkainen koodi pyörimässä, ja mikäli blogi jätetään päivittämättä, sen koodista löytyy reikiä joita voidaan hyväksikäyttää (exploits).

Blogaajalla on vaihtoehtona valita valmis peti (‘hosted’), jonka tietoturvakin pysyy usein ajantasaisena (koska ylläpitäjä voi kerralla päivittää automaattisesti kaikki vuokraamansa blogit). Toinen vaihtoehto on itse pystyttää serveri, ja tarjota sisältöä omalta tietokoneelta. Tällöin on melkeinpä päivittäin tarkistettava, että serverille on ajettu viimeisimmät turvapäivitykset sisään – tai esimerkiksi jätettävä poiju, joka hälyttää kun uusia päivityksiä on saatavilla.

Miten eroon haamukäyttäjistä?

Fundamentaali ongelma on siis erotella “kasvottomasta” tietokannasta todelliset käyttäjät niistä, jotka eivät oikeasti edusta luonnollista henkilöä. Usein tiedossa on vain käyttäjätunniste, sähköpostiosoite, ja mahdollisesti jotain lisätietoa.

Naiivi lähestymistapa, jos halutaan kuitenkin pitää oikeat käyttäjät elossa, on lähestyä jollain tapaa kaikkia käyttäjiä (koska päälle päin emme voi päätellä juuri mitään). Voisimme filtteröidä pois selkeästi “huonot” käyttäjät, ja sen jälkeen keskustella todennäköisesti aitojen käyttäjien kanssa.

Vastaamattomuus voi muuten riippua monesta asiasta. Kolme tulevat päällimmäisenä mieleen: henkilö matkoilla, henkilö hämääntynyt tarkistusviestistä, tai “henkilö” on botti jonka tekoälyyn ei ole ohjelmoitu vastausta juuri tämän tyyppiseen pyyntöön.

Osan tunnistaa siitä, että ne on raavittu netistä: ei kenenkään oikea sähköpostiosoite voi olla etunimi.sukunimi ät firma.com , koska meillä Suomessa ei asusta Etunimi -nimisiä henkilöitä. Jäljistä näkee hieman spam-bottien filosofiaa ja sielunelämää. Ne löytävät Internetistä erilaisilta sivuilta merkkijonoja, joissa on keskellä @ merkki. Botti ottaa tällaisen talteen, ja jatkaa sivun kahlaamista.

Suorituksen mittaus ja parantaminen

Isoja projekteja ei kannata vetää, jollei niistä voi mitata parametreja. Tässä tapauksessa haluaisimme tutkia, miten onnistunut puhdistus on ollut. Pieni koodinpätkä lienee paikallaan ensin itse työkalun luomiseksi. Ajattelin lähteä ratkaisemaan ongelmaa Pythonilla. Toinen vaihtoehto voisi olla Perl, jossa on nopeat ja hyvät merkkijonojen käsittelyominaisuudet.

Katson vielä tässä vaiheessa netistä, josko valmiita samanlaisia projekteja on olemassa. En usko, että olen ainoa ylläpitäjä jolle rojahtaa iso käyttäjätietokanta täynnä spammaajia.

Teknisesti filtterin luomisessa pieni ongelma on sovittaa letkut lähtöpään tietopankkeihin, eli erilaisiin todellisiin käytössä oleviin käyttäjätietokantoihin. Web-maailmassa näitä on ainakin jokaisella sisällönhallinta-alustalla luultavasti omansa, ja sen lisäksi erilaisilla lista / postitusohjelmilla myös omansa. Koska tiedot vaihtelevat paljonkin riippuen ihan tekniikan luomista rajoitteista siihen, kuinka paljon kukin käyttäjä haluaa antaa itsestään listalle, pitää löytää pienin alijoukko jonka voidaan aina olettaa olevan.


Some-time.. eli, minne viestit matkaavat?

Onko sosiaalisen median tavoista tullut jo kuin jokin etäinen eliitin protokolla, jota seurataan tietämättä, miksi? En oikeastaan tiedä. SEO eli digitaalisen median (haku)optimointi on sateenkaaritermi, jonka alle mahtuu paljon. Se lupaa tuotteistettuna tuoda oikeat kävijät tiedon juurille, oikeaan aikaan.

Kaikkihan tietävät perussäännöt:

  1. Kirjoita säännöllisesti. Yllätä, mutta älä revittele tylsällä tavalla.
  2. Tutustu lukijoihisi, siis: vuorovaikuta. Yksipuolinen tulitus puuduttaa. Parhaimmat blogit saavat paljon mielenkiintoista palautetta, josta syntyy keskustelua ja uutta tietoa.
  3. Mitä enemmän aidosti vuorovaikutat, sitä innokkaammin ja enemmän blogiasi / muita kanaviasi seurataan.
  4. Originaali sisältö on parempaa kuin muualta kopioitu. Pahimmat anti-esimerkit saattavat jopa hetken aikaa mennä läpi, kunnes lukija huomaa, että kaikki saitin tieto on automatiikalla kopioitu muualta.
  5. Twitterissä kannattaa seurata (“follow”) nimimerkkejä, muttei sellaisia joiden ainoa tarkoitus on päätön massatiittailu ja spämmaily.
‘Tylsä tapa’ riippuu hieman kulttuurista. Itse näen punaista viesteistä, jotka ovat kuin suoraan siitä 10 sekunnin radiospotista, jossa huudetaan täysillä ja väitetään että Kuu on oikeasti punainen, ja sitten kehotetaan käymään webbisaitilla tarkistamassa tämä uskomaton väittämä. Eli sellainen hieman naiivi, mutta tylsän ontto ja studiomainen viesti.
Käsittääkseni monet tähtäävät tiittauksilla kansainvälisille apajille, toisinsanoen de facto kieli on usein englanti. Toisaalta omaa kieltään käyttämällä voi hyvinkin tarkasti kohdistaa viestin vaikka pelkästään suomalaisille (en usko että vielä toistaiseksi kovin moni käyttää automaattista Google Translate -palvelua kääntämään “omituisista” pikkukielialueista viestiä omalle äidinkielelleen).
Vuorokaudessa on 24 tuntia. Erilaisia aktiivisia blogeja ja uutislähteitä on kymmeniä miljoonia. Yksittäinen ihminen jaksaa seurata oikeasti ehkä 10-20 kpl näistä. Monesti omat kirjoittelumme heijastelevat jossain määrin muiden lähteiden sanomaa – aivan kuin kirjailija ammentaa kirjaansa sitä, mitä näkee, kuulee ja haistaa ympärillään.
Olen nyt lähettänyt Twitteriin noin 2200 pikkuviestiä. Niistä ehkäpä 1/4 sisältö liittyy välittömään elämääni, tekemisiini; suhautin kevään ensimmäisen lenkin, kävin uudella paikkakunnalla tutkailemassa luontoa, sain hyviä valokuvia saaliiksi luonnosta, jne.
Suurin osa viesteistä on jollain tavalla kommentoivia, elämään liittyviä yleisiä oivalluksia. Viime aikoina olen alkanut saada jonkinlaista surinaa ja elämää jukkapaulin -twitternimeni ympärille. Se on ollut äärimmäisen kiehtova ilmiö. En nimittäin oikeastaan alussa juurikaan ymmärtänyt, miksi koko juttua tein. Vasta tekemällä oppi, ja jatkamalla pystyy ammentamaan lisää tuntumaa, kehittymään. Teknologia ja yrittäminen pyörii aiheissa usein, ja niinpä seuraajani ovat myös start-up enkeleitä, vanhoja ohjelmoijakollegoita, satunnainen Grateful Deadin jäsen, ja parisataa muuta. Oikeastaan hassua ajatella, miten satunnaisen joukon lopulta tuo media yhdistää.
Sosiaalisella medialla voi olla mahdollista saada noita aiemmin mainitsemiani tarkkoja kampanjoita ja mitattavaa tulosta, mutta en tiedä kuinka moni sellaisesta on kiinnostunut. Some on tietyllä tapaa vasta nousemassa vakiintuneeksi kanavaksi yrityspuolella. En epäile, etteikö se voisi soveltua hyvinkin siihen tarkoitukseen. Mediaa ei vaan kannata ottaa liian ryppyotsaisesti. Media nimittäin, jos joku, on kuin se tarinan pulloon sujautettu filosofin kirjoittama pieni tarina, joka leviää ja kohtaa rantoja, joille se ei ikinä olisi uskonut pääsevänsä.


Jokainen tuppaa natisemaan ajoittain; autoista, ruoasta, palvelusta. Jollekulle lihapakkauksen muovikuori on liian tiukassa; toiselle sipsien kypsennysaste on väärä. Pikaruokala sattaa olla kaikkea muuta kuin “pika”, jonon venyessä 20 minuutin paremmalle puolelle, jos puikoissa on amatööriporukka ja muutenkin sopivat olosuhteet. Ainahan huonon laadun tunnistaa, ehkä niinkin usein, että otamme sen jo vakiona.

Olemme silti aika kärkkäitä toteamaan, että jokin asia ei mielestämme toimi niinkuin pitäisi.

Mutta: miksi firmat saavat lopulta niin kovin harvoin nämä mielipiteet?

Eli jokin maaginen muuri erottaa tietomme huonosta palvelusta, ja sen, että signaloisimme ulospäin oikeille tahoille tämän tiedon.

Miksi mielipiteet muuttuvat matkan varrella, ja menettävät sen emotionaalisen latauksen, joka kertoisi onko kyseessä todella suuri ongelma vai vain hieman toleranssin ulkopuolella oleva yksityiskohta, joka kärttyisänä päivänä sai meidät astumaan valitusrajan yli? Oliko tuotteen vika tai puute se todellinen ongelma, vai oliko valituskanava keino meille purkaa kaikki senpäiväinen angsti?

Yritykset hyötyisivät valtavasti, jos ne kaappaisivat ja käsittelisivät edes lähelle 80% valituksista. Veikkaan, että nykypäivänä yrityksen johtoporukkaan, tuotekehitykseen ja vastaaviin elintärkeisiin osastoihin osuu korkeintaan joka tuhannes valitus. Tiedän loistoyrityksiä, joiden pinnan alla muhii aikapommi, koska yritys ei reagoi oikeasti aitoon asiakaspalautteeseen millään tavalla. Tällaisten firmojen vihdoin tasatessa punttena markkinoiden kanssa (esim. osakekurssien merkeissä) ja näkemyksiä tosimaailman kanssa niiden antifanittajat työntävät puukkoa haavaan ja kääntävät – monesti.

Sana ‘valitus’ tuo mieleemme usein jotain negatiivista; kulttuuriimme kuuluu tietty stoalaisuus, kovanahkaisuus, turhista asioista kitisemättömyys – ja tämä on perinjuuri haitallista, monella tapaa. Asiat eivät kehity, niin kauan kuin niiden tuotannosta vastaavat tahot eivät saa tarkkaa ja rehellistä palautetta. Niin kauan kun maksamme häpeästä vuosi toisensa jälkeen huonosta palvelusta, tai luemme yksipuolisesti saneltuja toimitusehtoja kuin piru Raamattua, annamme tietämättämme piut paut laadulle. Laadun pahin vihollinen on harmaa keskinkertaisuus – ja usein nykypäivänä: härski ala-arvoisuus.

Mistä valitukset sitten löytää? Aivan vääristä paikoista. Äidit valittavat kaikista käyttämiensä esineiden laatuvioista omilla äitien foorumeillaan. Ei se tieto sieltä koskaan päädy tuotantoon tai laadunvalvontaan. Asioita on turha muhia erilaisissa kuppikuntablogeissa. Valituksille pitäisi saada selkä, avoin, nopea, ja tehokas valituskeskitin. Paikka, josta kuluttaja tietäisi valituksen etenevän välittömästi kohti oikeaa osoitetta. Paikka, jossavalituksen tekemiseen ei liity minkäänlaisia ylimääräisiä kustannuksia.

Keskittimessä voitaisiin todeta nopeasti ja yrityksistä riippumatta, onko jokin tietty tuote selkeästi ongelmallinen. Onhan eri toimialoilla jo blogeja ja arvostelupaikkoja pilvin pimein, mutta siinäpä ongelma onkin: jokaiselle segmentille löytyy omanlaisensa, ja niiden tietojen kerääminen, visualisoiminen ja vertailu on vaikeata. Yksittäinen blogi nimittäin täytyy usein kirjoittaa journalistisella otteella, mikäli haluaa pitää lukijoistaan kiinni.

Firmat puolestaan käyttävät joskus härskejäkin konsteja suojautuakseen todellisilta toimilta. Ne pistävät jonotuksen maksulliseksi; vaikkei sinänsä ole kyse kovin suuresta asiasta, voidaan kuitenkin helposti käsittää, että useat ihmiset jättävät puhelun sikseen. Asiakaspalvelijoita ei ole kovin montaa useinkaan; tällöin syntyy jono, ja kuten aiemmin sanottu, jonosta ihmiset usein tippuvat pois. Myös kaksi asiaa on mainitsemisen arvoisia; valituksen käsittelijä voi käyttää iskunvaimennintaktiikkaa, ja tarjota yksittäiselle kuluttajalle jotain pientä kivaa, jolloin valitus absorboidaan ja varsinaisesti mitään muutosta ei tapahdu. Toinen on se, että yrityksessä ei ole yksinkertaisesti määritelty riittävän tarkasti palautteen keruun käsittelystä, ja tieto pääsee harakoille.

Parhaimmat firmat pitävät jokaista palautetta käsissään kuin kultahippusta. Aito, valehtelematon palaute on todellakin kullan arvoista. Se kertoo, mitä mieltä kuluttaja oli siitä, josta maksoi. Ja epäsuorasti palaute kertoo, aikooko hän maksaa uudestaankin saman firman tuotteista.