Impresszum Help Sales ÁSZF Panaszkezelés DSA

About...

Napi betevő adag elírás, elütés és helyesírási hiba egy helyen! Amúgy meg #információbiztonság #webcserkészet néha #élettudomány

bardóczi ákos @post.r

blogavatar

minőségi kontent-egyveleg

RSS

cimketenger

ITsec (38),Facebook (18),privacy (17),egyéb (12),social media (11),itsec (11),social web (10),biztonság (9),mobil (8),Google (6),OSINT (6),jog (6),szellemi tulajdon (6),tudomány (6),magánszféra (6),szájbarágó (5),email (5),webcserkészet (5),molbiol (5),felzárkóztató (5),Nobel-díj (4),big data (4),Gmail (4),kultúra (4),terrorizmus (4),online marketing (4),kriminalisztika (4),plágium (4),webkettő (4),genetika (3),molekuláris biológia (3),pszichológia (3),azelsosprint (3),Android (3),biztonságpolitika (3),nyelvtechnológia (3),magatartástudomány (3),Apple (3),sajtó (3),2015 (3),orvosi-fiziológiai (3),élettudomány (3),gépi tanulás (3),jelszó (3),üzenetküldés (3),CRISPR (3),Onedrive (3),2-FA (3),popszakma (3),konferencia (3),levelezés (3),kriptográfia (3),reklám (3),biztonságtudatosság (3),hype (3),torrent (3),open source intelligence (3),neuropszichológia (2),Whatsapp (2),deep web (2),FUD (2),kulturális evolúció (2),nyílt forrású információszerzés (2),TOR (2),hitelesítés (2),titkosítás (2),Pécs (2),bűnügy (2),tweak (2),facebook (2),SPF (2),DKIM (2),bűnüldözés (2),DDoS (2),bejutas (2),videó (2),Reblog Sprint (2),természetes nyelvfeldolgozás (2),villámokosság (2),Hacktivity (2),Yoshinori Ohsumi (2),reblog (2),cyberbullying (2),arcfelismerés (2),ransomware (2),fiziológia (2),Netacademia (2),webkamera (2),szabad információáramlás (2),P2P (2),Balabit (2),cas9 (2),beszélgetés rögzítése (2),pszeudo-poszt (2),molekuláris genetika (2),bulvár (2),gépház (2),tartalomszolgáltatás (2),jövő (2),bolyai-díj 2015 (2),könyv (2),Tinder (2),öröklődő betegség (2),HR (2),sudo (2),Yandex (2),bug (2),nyelvtudomány (2),meetup (2),Twitter (2),tanulás (2),biológia (2),netkultúra (2),malware (2),IDC (2),social engineering (2),szociálpszichológia (2),kutatás (2),hírszerzés (2),iOS (2),vírus (2),farmakológia (2),pedofília (2),epic fail (2),génterápia (2)

Közeleg a második szoftverkrízis?  


Alighanem igen. Helyesebb viszont inkább programozókrízisnek nevezni. Egyszerűen nem vagyunk elegen, ugyanakkor a piac bővülése, ahogy az egyre újabb és persze komplexebb szoftvermegoldások iránti kereslet továbbra is növekszik.

Az 60-as évek végén, a 70-es évek első felében egy egészen sajátos, addig ismeretlen jelenség következett be: sokkal több számítógépre és szoftverre lett volna szüksége a piacnak, mint amennyi egészen egyszerűen rendelkezésre állt. Ekkor már sokan tudták, hogy nagyon sok minden számítógépekkel végezve csökkenti a költségeket és növeli a hatékonyságot, viszont egész egyszerűen nem voltak meg a szükséges szoftverek hozzá. Körülbelül ekkorra tenném a szoftvertechnológia - és egyben a digital age - kultúrtörténetének kezdetét.

A történet folytatása ugye az egyedileg fejlesztett szoftverrendszerek voltak, amik nemhogy egymással, hanem sokszor még önmagukkal sem voltak kompatibilisek, alaposan feladva ezzel a leckét a szabványügyi szervezeteknek és egyben kooperációra kényszerítették azokat a cégeket, amik korábban egymás legnagyobb riválisai voltak. A probléma persze csökkent, szinte el is tűnt, akik óvodás koruk óta követik a híreket, még az én korosztályom tagjai közül is emlékeznek arra, hogy bizony a 90-es években nem ritkán még egy közepes méretű cég is inkább összetákoltatott egy adatbáziskezelőt, táblázatkezelőt, komplett számlázórendszert vagy éppenséggel amit egy kis programozócsapattal. Ma már senkinek sem jutna eszébe, hogy egy programozóval saját táblázatkezelőt vagy teljes vállalatirányítási rendszert írasson. Jöttek a komplett irodai programcsomagok, mint az Office és klónjai, a pénzügyi szektorban megkerülhetetlen szereplő lett az SAP és az ahhoz kapcsolódó technológiák, ahogyan a Cisco szolgáltatja a saját oprendszerével a teljes internet gerinc-infrastruktúrájának több, mint háromnegyedét, óvatos becslések szerint és sorolhatnám. Azaz eléggé egyértelművé vált, hogy különböző "sportágban" és "súlycsoportban" kiknek a termékei maradtak talpon és viszik a piac nagyobb részét, ahogy a végfelhasználó a 2000-es évek elejére már teljesen hozzászokott, hogy szinte minden feladathoz feltelepíthető a megfelelő szoftver next-next-finish-tematika alapján, ekkorra a legnépszerűbb operációs rendszereket érintő, ma már elképesztő mértékű stabilitási és inkompatibilitásbeli problémák is alaposan redukálódtak.

Azaz ma, ha szükségem van egy normális videóvágó programra, letöltöm és használom, közben nem kell tartanom attól, hogy kékhalállal elszáll a gép minden különösebb előzmény nélkül, ahogy attól sem, hogy akár hónapokat kelljen várni ahhoz, hogy egy újonnan megjelent vírus leirtásához szükséges frissítés el is jusson hozzám. Természetesen például a cloud technológiák és a mobil megoldások elterjedése új típusú, komplexebb problémákat szültek.

A felhasználót nem érdekli, hogy valami miért nem úgy működik, ahogy kellene, miért fagy, miért nem kényelmes, őt csak az érdekli, hogy működjön, de szinte esélye sincs belelátni egy informatikai eszköz működésébe, legyen szó akár végponti eszközről, azaz például a mobilon futó oprendszerről, akár a szolgáltatásokat kiszolgálóoldalon biztosító szerverekről. Viszont idővel eljött az a pont, hogy már az informatikusoknak is egyre nehezebb, nos, ekkor kezdődtek a gondok.

Tudom, hogy az átlag felhasználó úgy gondolja, hogy aki informatikával rendszeresen foglalkozik, mindennek a működését érti és egy hibát azonosítani is javítani is tud azonnal, egészen a mikrosütőtől kezdve a blogmotoron át a rendszeresen lefagyó mobilokig - mert, ha nem, akkor nyilván "hülye hozzá" - a valóság azért máshogy fest. Az nem várható el egy informatikustól, hogy minden informatikai eszközhöz és technológiához a problémamegoldás szintjéig értsen, az viszont továbbra is elvárás, hogy egy adott rendszert és annak felmerülő problémáit ésszerű idő alatt át tudjon látni és tudjon is orvosolni. Azt írtam továbbra is elvárás illetve ésszerű idő alatt.

Viszont vagy mi, informatikusok vagyunk egyre hülyébbek vagy a napi rendszerességgel használt informatikai eszközök is egyre komplexebbek, úgy fest, hogy ennek a kihívásnak egyre nehezebb megfelelni - még egyszer: ésszerű időráfordítás mellett. Ennek a jelenségnek a tüneteit, lehetséges okait és középtávú következményeit boncolgatom egy kicsit - anélkül, hogy mostanában lett volna időm a poszt megírása előtt utánakutatnom a konkrét jelenséggel kapcsolatos mutatóknak, de meg tudom magyarázni! Legyen erős a Kedves Olvasó: nem volt rá időm :) Szóval írok a meglévő tudásomra és logikámra hagyatkozva. Jöjjön három példa, bármiféle egyezés a valósággal a véletlen műve!

0x100. eset: adott egy szép nagy pénzintézet csúnya és komplex informatikai kiépítésének egyik alrendszere, amit egy csapat egészen szépen át tud látni, viszont amint egyvalaki hiányzik a csapatból, ha nem is válik totálissá a fejetlenség, elég nagy a para, mivel ha nincs ott a Jürgen, akkor az egész csapat meg van lőve, mivel Jürgent esélytelen, hogy valaki tudja helyettesíteni és csak szerencse, ha pont nem akkor történik valami olyan, amihez ő kellene, mert akkor az érezhető hatást gyakorol a pénzintézet üzletfolytonosságára. Igen: egy Oracle-höz kapcsolódó rémségről van szó.

0x200. eset: adott egy informatikai  biztonsággal foglakozó cég, ami egy új megközelítéssel próbálkozik megoldást fejleszteni arra, hogy egy közepes vagy éppenséggel nagy méretű cég, ami nap, mint nap irgalmatlan mennyiségű netről érkező fenyegetésnek van kitéve, megfelelően tudja megelőzni és kezelni a biztonsági incidenseket. Összelőttek több csapatot, akiknek ki kell dolgoznia a tervezéstől kezdve az implementációig a megoldást, csakhogy több hétig tart, mire megértenek egy-egy problémát, de nem azért, mert hülyék lennének, sőt, konkrétan profikról van szó. Csak éppenséggel a probléma bonyolult és a fejlesztés természeténél fogva nagyon kockázatos lenne külsőst bevonni a munkába.

0x300. eset: adott egy portál, egy adott blogmotorral és egyre növekvő számú látogatóval, amit nincs mese, a forgalmából adódóan stabilabb helyre kell költöztetni azért, hogy folyamatosan biztosan elérhető legyen, korábban alighanem nettó mákjuk volt, hogy azt a szervert, amit használtak, más ügyfelek csak kevés látogató mellett használtak, azaz alighanem a teljes szerverkapacitást ki tudták használni. Viszont ha költözni kell, hát költözni kell, ha saját szerverre nem költenek, akkor virtuális szerverre. Fehér ember viszont mielőtt VPS-re tesz bármit is, tesztkörnyezetben alaposan méricskéli keresztbe-hosszába az portálmotor erőforrásigényét és ha 100+1%, hogy nem lesz probléma, akkor teszi át a teljes hóbelebancot egy erőforrások szempontjából teljesen autonóm rendszerre. Ja és még egyszer: mindezt relatív olcsón – olcsó környezetben. Gyakorlatilag 1-2 nap alatt kibukott, hogy az akkori formájában jó, ha pár percig működött volna a portálmotor kiválasztott éles környezetben, mert eszelős mennyiségű adatbázislekérdezést küldött a szerkesztőfelület az adatbázismotor számára. Ennek megfelelően a tesztelő próbálta az egész erőforrásigényét csökkenteni megtartott stabilitás és sebesség mellett, de az adott (olcsó) tesztkörnyezetben - na ez volt a kihívás - olyan régen tesztelt ilyet, hogy rövidke időre eltűnt négy napnyi cikk, amint mentésből kellett visszavarázsolni, részben a CMS programozóinak hülyesége, részben pedig a tesztelő  kapkodásom miatt: ingyenes szoftverről sose hidd el, hogy biztosan azt és úgy csinálja, amit csinálnia kell, a tesztelő viszont fél percig elhitte... Az olcsó környezetet azért emeltem ki, mert máshogy gondolkozik a tesztelő agya, amikor 5-10 USD illetve egy 500+ USD havi díjért elérhető vason kell valaminek zakatolnia úgy, hogy közben az össz-minőséget és rendelkezésre állást fenn kell tartani. Igen: Wordpressről van szó.

Ami mindhárom, valós eset alapján világos és folyamatosan tapasztalom, hogy - drámaian fogalmazva - a gépekhez az emberek egy ideje "túl hülyék", függetlenül attól, hogy melyik szektorról vagy milyen felhasználási területről van szó. Oké, persze, van, amikor az, aki a technikai megvalósításért felel, tényleg hülye hozzá, de a cikkben sosem azt az esetet fogom alapul venni. Akár alapkutatás, akár fejlesztés és ipar, ahogyan a polihisztorok kihaltak, egyre jobban értünk egyre kisebb területhez, amivel viszont nem számolunk, hogy ez egy szinten túl azt is magával hozza, hogy ha valami mást kell fejleszteni vagy tesztelni, mint amivel kimondottan foglalkozunk, ezért annak utána kell kutatni, a dolog sokkal több időt és energiát vesz igénybe, mint mondjuk 15 évvel ezelőtt egy informatikusnak, aki akkor járt hasonló cipőben. Ha feltételezzük, hogy informatikusként nem vagy hülye, a Te időd és az ügyfeled infrastruktúrára fordítható anyagi keretei végesek, és nem droidpisti-kontármunkát akarsz kiadni a kezedből vagy több időt fordítasz arra, amit vállaltál vagy a minőség terén teszed lejjebb a lécet, na ez mondjuk nálam nem opció.

Hogyan jutott a bedrótozott világ idáig, mit hozhat a jövő és mi lehet a megoldás?

Ezen a ponton tételezzük fel, hogy azoknak a szoftvereknek a nagyobb részét, amik el is terjednek akár okostelefon-appról, akár nagyszámítógépes platformról van szó, szakszerűen készítik olyan értelemben, hogy klasszikus módon valamelyik bevált módszertannal megtervezik, megírják és rendszeresen tesztelik is.

A fejlesztésben dolgozó informatikusoknál több országban csak a pénzügyi szektorban dolgozók keresnek jobban, valami miatt mégis elképesztő informatikushiánnyal néz szembe szinte az egész világ. Elég csak arra gondolni, hogy Magyarországon 10-15 ezer informatikus hiányzik a munkaerőpiacról, több cég a Szilíciumvölgyben és a Nyugat-európai térségben nem csak kiszervezi a fejlesztés vagy a tesztelés részét vagy egészét olyan országokba, ahol a munkaerő olcsóbb, hanem sokszor akár oda is költöztetik a legjobb fejlesztőket a kutatóbázis közelébe, azaz mintha nem lenne elég fejlesztő helyben /*ugyan azzal kapcsolatban nincs konszenzus, hogy a munka világában ilyen akkor történik globális viszonylatban, ha a fogadó országban munkaerőhiány van vagy a jelenség ettől részben független */. Informatikusnak lenni menő, mégsem mennek ennek megfelelően sokkal többen informatikai pályára.


Ezzel kapcsolatban globális viszonylatban aligha lehet mondani bármi értelmeset is, ha a magyar viszonyokat nézem, azért van néhány dolog, ami ezzel összefüggésbe hozható:

- Elég csak megnézni a fórumokat, abból a többség számára az jön le, hogy az informatikai szakok nehezek, sok "fölösleges" dolgot tanítanak, túl sokat kell dolgozni a diplomáig abban az életszakaszban, amíg gondtalanul ihatna a fiatal egy másik, ha nem is feltétlenül könnyebb, de kiszámíthatóbb szakon. A bizonytalanság pedig öntudatlanul kerülendő. Meg is lehet nézni, hogy rendszerint milyen tragikusan alakulnak az informatikus felvételi ponthatárok, 2-3 helyet leszámítva.
- Igen, igaz az, hogy összesen 2-3 egyetem van az országban, aminek az informatikus szakán tanulva sajátítja el valaki azokat a skilleket, amik lehetővé teszik, hogy jó informatikussá váljon. Azt írtam: lehetővé teszik! Ugyanis önmagában attól, hogy valaki informatikus diplomát szerez, az én fogalomrendszeremben - na meg a munkaerőpiac fogalomrendszerében - még nem informatikus, legalábbis nem önálló és nem is azonnal piacképes, a rutint viszont egyetem mellett is meg lehet szerezni. Szóval összesen 2-3 komolyan vehető hely van, amiből persze nem következik az, hogy aki nem ott végzett, nem lehet jó szakember, de ezerszer jobban meg kell dolgoznia azért, hogy a szakmai kompetenciája igazodjon a tényleges piaci elvárásokhoz, ahogy persze annak is, aki meg konkrétan semmilyen informatikus diplomát nem szerez. Most abba nem mennék bele, hogy maguk a bérviszonyok és a szakmai elvárások is jelentősen eltérnek Budapest és a többi város közt ebben a szakmában.
- Na, de mi a helyzet a többi egyetemmel? Távol álljak attól az általánosítástól, hogy egy vidéki egyetemen manapság egy tehetséges hallgató számára visszataszítóan sok a tuskó - a ponthatárokat előbb emlegettem - az viszont biztos, hogy az ottani légkör nyomokban sem hasonlít akár a kkv-s, akár nagycéges munkahelyi légkörhöz, többek közt ezért az iskolapad egyszerűen nem vonzó sokaknak. És egy pillanatra se felejtsük el, hogy ha egy piacon alapvetően kevesen vannak, általánosságban oda fog menni az informatikus dolgozni, ahol alaposan megfizetik (==ezt csak a jobbak tehetik meg), így nagyobb valószínűséggel kerül olyan informatikus egyetemi oktatói pozícióba, ahol kevésbé fizetik meg, aki - mondjuk ki - nem kell az iparnak. Vigyázat! Elnagyolva fogalmaztam. Hangsúlyozom: általánosságban, hiszen jelen esetben a kereslet a kínálatot alaposan meghaladja, így ez az effektus jobban érvényesül az informatikusoknál, mint más terület képviselőinél, de nem jelenti azt, hogy aki iparban van, jó szakember, ha pedig egyetemen tanít, kókler. Akiket én ismerek vagy elhivatottságból tanítanak vagy a tehetségtelenségük miatt. Ezen kívül a tehetséggondozásnak, tehetségsegítésnek nem igazán van elvárható szintű kultúrája.

Nem vagyok hajlandó senkinek magyarázkodni az ezzel kapcsolatos véleményemért, de az informatika tényleg az a terület, ahol a jobbak tényleg csak azért maradnak a katedrán, mert elhivatottak, szeretnek tudást átadni vagy éppenséggel minősíthetetlenek munkaerőpiaci szempontból, de jobb esetben máshol legfeljebb stupid robotok lehetnének. Nemrég történt, hogy egy informatikus hallgatókat tömörítő egyetemi csoportban, amire nekem is van rálátásom, nem értettem egyet egy oktatóval [pontosabban ő velem], a kommentejei alapján pedig kiderült, hogy 0x100. a vitakultúrája körülbelül egy ősember szintjén áll 0x200. ha az érvelésem kicsit is bonyolultabb volt, nem értette annak lehetséges konnotációit [amiből lejön, hogy fingot sem olvas] 0x300. a tahó válaszai nemhogy ellenérzést keltettek volna a hallgatókban, sőt, egyenesen népszerű volt számukra, hiszen a rövid és tuskó válaszok egyszerűek és mindenki számára értelmezhetőek 0x400. annyira primitív módon fogták meg többen a dolgot, hogy jobb híján nem az érveket próbálták ütköztetni egymással, hanem inkább a személyeket, nevezetesen arra célozgattak egyik másik oktatónál, hogy ejnye-bejnye, kiállt mellettem korábban, pedig lám' mekkora pöcs vagyok. Többet most erről nem csak azért nem írok, mert már ennyi is kínos, na meg szükségtelen, hanem mert még a végén valamelyikük eljut idáig ennek a posztnak az olvasásában, aztán rögtön rohan perelni valami wannabe-retardált ügyvéddel képviseltetve magát. /*ez is megvolt, egy Tumblren megjelent mikroposzt miatt!*/

Összefoglalva: hiba lenne bármiféle általánosítást megfogalmazni az alapján, hogy ilyen egy egyetemi közegben megtörténhet, azért mutatja, hogy vannak gondok, amivel kapcsolatban nem vigasz, hogy biztosan lehetne találni még kínosabb helyet. Lényeg, hogy az egyetemek egy nagyon nagy része nagyon nem menő, főleg annak, aki ismeri azokat a munkakörülményeket, amik elvárhatóak egy normális IT-s cégnél, ezért nem mennek informatikai szakra vagy dobbantanak.

A mostani szoftverkrízis küszöbén, a jelenség értelmezésében nem választhatóak el az emberi tényezők a többitől, nem feltétlenül állja meg a helyét az a modell, ami szerint az informatikai eszközök és szoftverek közt - divergáló technológiák ide vagy oda - majd az evolúció kiszórja a gyenge minőségűt. Ez működött egy darabig. Már nem, egészen egyszerűen azért, mert a tömeg ilyen eszközök esetén nem racionálisan dönt: például megveszik az okosmobilt, mert jól néz ki, akkor is, ha a rajta lévő platform a rá letölthető programokkal tragikusan alacsony minőségű, illetve egészen egyszerűen nagyon olcsó okosmobilra is mindig lesz kereslet. Ha pedig nem okosmobilt vesz az egység sugarú felhasználó, hanem portálmotort izzít be a saját blogjához, nem olyat választ, ami stabil és gyors, hanem olyat, aminek a szerkesztőfelülete - amit ugye az olvasó sosem lát, így irreleváns szempont kellene, hogy legyen - szép, jópofa, a portálmotor pedig népszerű. A portálmotorokat illetően a minőség általában még csak azzal sincs összefüggésben, hogy ingyenes vagy fizetős megoldásról van szó. Elő lehetne túrni azokat az eléggé komoly cikkeket, amik azzal foglalkoznak, hogy sokszor nemhogy a felhasználók, hanem az IT döntéshozók is úgymond pofára, külcsíny alapján döntenek valamelyik termék vagy IT megoldás mellett, amiben végülis nincs semmi meglepő, hiszen emberek vagyunk. Olyan marketingpszichológiai részletekbe most nem mennék bele, hogy akár egy egyéni végfelhasználó freemium modellben működő szolgáltatás esetén néhány garast fizet az extrákért, akár egy IT döntéshozó döntött egy új CRM-rendszer, levelezőrendszer vagy csapatmunkát segítő suite bevezetéséről, amit jó drágán adnak, nem vizsgálja felül a döntésének helyességét akkor sem, ha a termékről menet közben kiderül, hogy trágya minőségű - ugyanis bizonyítottan elhitetjük magunkkal, hogy ami drágább, annak jobbnak is kell lennie.

Azaz ne legyünk naivak, a versengés erős, de sokszor nem igazságos, ami át is vezet a következő gondolathoz.

Ha szoftverről van szó, már rég elkezdett eloszlani az az egyszerűsége miatt közkeletű téveszme, ami szerint ami nyílt forráskódú és/vagy ingyenes, az jó, ami pedig nem nyílt forráskódú és/vagy fizetni kell, az rossz. Itt nem csak arra gondolok, hogy sokszor a teljesen nyílt forráskódú termékekben is csak évekkel később vesznek észre egy-egy orbitális hibát. Ebben a műfajban a kedvencem, hogy hiába volt az open source közösség orra előtt egy fájlszervereket érintő sebezhetőség az egyik BSD-s oprendszerben, csak évekkel később vették észre, ahogy előfordul, hogy nem tűnik fel nekik, hogy mások később kihasználható sebezhetőségeket építenek a szoftverbe. Sokszor pedig bele sem kell építeni semmit szándékosan, konkrétan szintén az OpenBSD operszert érintette egy több, mint harminc évig felfedezetlen hiba nekem mondjuk ezért (sem) volt meglepő a 2014-es év nagy ITsec parája, ami a titkosított webhelyek elérését érintette az biztonságos elérést szavatoló OpenSSL bizonyos verzióinak sebezhetősége miatt.

Tehát az egy dolog, hogy a nyílt forráskódú kultúra szépségét az adja, hogy a szoftver forráskódját bárki olvashatja, ez nem jelenti, hogy olvassa és értelmezi is. Sőt, egy pillanatig se felejtsük el, hogy ha valaki egy szoftverhibára bukkan egy nyílt forrású rendszerben, nem biztos, hogy a fejlesztőt értesíti, aki jó esetben nem akarja leperelni az illetőről a gatyát is a világ túloldaláról, akár bizonyítható, hogy a szoftverhibát kihasználták, akár sem. Ezen kívül jól ismert jelenség, hogy egy hiba bejelentése után a szoftver készítője a hibát elbagatellizálja, mondván, hogy másnak úgysem jut eszébe, de az is gyakori, hogy a munkaköltsége, a szükséges időráfordítás, amit a lyuk befoltozásával kellene tölteni persze a szükséges tesztek lefuttatásával együtt olyan többletköltséggel járna, hogy a hiba ezért marad benne egy termékben azon túl, hogy fel kellene vállalniuk a fejlesztőknek, hogy hiba maradt a termékükben.

Elsősorban biztonsági szempontból érdekes programhibák bejelentésére kitalált ún. bug bounty programok és azok dicsőségfala ide vagy oda, mondjuk a Googlenél vagy a Facebooknál,  ne legyenek illúzióink, a világot ezzel nem váltja meg egyik óriás sem.

Kínosan közhelyes, hogy programhibák mindig is lesznek. A gond azzal van, hogy egyre több, egyre több helyen és úgy fest, hogy a szoftverek mennyiségéhez képest egyre kevesebben látják át és tudják javítani. Amikor azt látom, hogy a minőségi szoftverfejlesztésben egy-egy olyan terméknél, aminek alaposan meg kell fizetni az árát, a fejlesztési fázisok közt legalább annyit költ egy cég a tesztelésre, mint a kezdeti implementáció elkészítésére, érthető, hogy ezekkel csak ideig-óráig tudják felvenni a versenyt a szabad szoftveres megoldások, amiket sokszor tehetséges, ámde lelkes önkéntesek készítenek és nincs rajtuk az a nyomás, hogy a tesztelésre, a software quality assurance-re annyira figyeljenek. Tesztelés persze van ott is, csak éppen lazábbra veszik a figurát: a szoftver szükségszerűen gyengébb minőségű lesz. Ugye-ugye, az a mocskos pénz mégsem az ördögtől való dolog ám.

Egyébként értem én, hogy leegyszerűsítve kezeli egy jelenséget mindig népszerűbb, csak éppenséggel vegyük észre, hogy egy egyszerűsítés mikor veszélyes demagógia. Ha valaki olvasta Eric S. Raymond A katedrális és a bazár, vagy éppen Lessing Szabad kultúra könyvét,  érdemes elolvasnia Bőgel György Üzleti elvárások, informatikai megoldások című könyvét is és rögtön világosabb lesz, hogy az ingyenes-fizetős, community support-dedicated support, zárt kódú-nyílt kódú jelleget és ami ezekhez kapcsolódik, nem egymással szemben, hanem egymással párhuzamban kell értelmezni. Nemrég jelent meg szintén Bőgel György szerkesztésében a Terepszemle: Tanulmányok és feljegyzések az infokommunikációs világról című könyve, szintén az IT gazdaságtanáról. Az említetek közül a negyediket még nem volt időm elolvasni, az elkövetkezendő három hétben nem is lesz, de ha valaki gyorsan elolvasná, kérem, hogy zanzásítva küldje el az email-címemre, csak ne "Kötelezők röviden"-stílusban.

Az IT- és a szoftverfejlesztés gazdaságtana sokmindenre magyarázatot ad, de nem mindenre.

Hogy mi várható az elkövetkezendő 3-5-10 évben, úgysem tudja senki, néhány lehetséges - esetleg egymással párhuzamosan bekövetkező - eshetőséget tippelni azért még szabad, végig vegyük figyelembe, hogy nem barlangban, hanem egy erősen behálózott világban élünk, azaz az informatikai eszközök megbízhatósága az MP3 lejátszótól a kémműholdig vagy így vagy úgy, de komoly hatással van a mindennapjainkra. Néhány lehetséges eset:

Armageddon - a piacot annyira elönti a gagyi, hogy kishíján mindenki belefullad: közvetlenül érzékelhető lesz például azon, hogy a mobilok lassúak lesznek és önveszélyesek, míg közvetetten érzékelhető lesz például azon, hogy az, amiért korábban [közvetlenül] nem kellett fizetni, de hatékony volt eltűnik a süllyesztőben vagy fizetős lesz, mivel egy ingyenes levelezőrendszer mögötti infrastruktúrát is szerverek képzik, rajta bizonyos operációs rendszerrel, bizonyos technológiákban megvalósított szerveroldali szoftverekkel. Az elgondolás alapján tévedés lenne azt hinni, hogy a legnagyobbak, mint mondjuk a Google levelezőszolgáltatása ezt az eddigi modellel megúszhatná, mert nem. Az armageddon közbeni állapot megszüntetése még szürreálisabbnak tűnik, mint a bekövetkezése: a verseny mostani természetétől teljesen eltérően, a legerősebb piaci résztvevők hallgatólagos és nyilvános megállapodásokat kötnek, amik hirtelen terelik a világot egy olyan irányba, ahol nagy ütemben tűnnek el egész programozási nyelvek, keretrendszerek, technológiák, módszertanok, a helyüket pedig a korábbinál jobban egységesített és tesztelhető komponensek veszik át. Rémesen bizarrul hangzik az, hogy egy élesedő versenyben egyszer csak bekövetkezzen az a pont, amikor csak úgy fogja megérni bárkinek is a bizniszt, hogy pont magát a versenyt mesterségesen megtörik, de ha elgondolkozunk azon, hogy mennyire függnek egymástól látszólag független komponensek, rögtön könnyebb elképzelni. Például köszönet a Samsungnak, hogy ilyen kitűnő ARM processzorokat gyárt az Apple iPhone-jaiba, amikben a mai napig egy nyílt forráskódú BSD /*unix-szerű oprendszer mag*/ rendszerből  származtatható iOS fut.

Ha az armageddon bekövetkezik, ami pedig az emberi, fejlesztői oldalt illeti, nyilván sokan húzzák majd a szájukat, nem pisálhatnak szembe a széllel, nem programozhatnak akármiben, akárhogy, ha nem akarnak éhenhalni, mert az lesz a mostaninál is kevésbé eladható, ami számításigényesebb, ilyen módon drágábban futtaható is. Elszigetelten persze már történt kicsit hasonló - persze nem valamiféle titkos összeesküvés alapján - például a fél évtizeddel később megjelenő C#-hez köthető technológiák szépen kipréselték a Java-alapú vagy ahhoz köthető technológiákat bizonyos területeken: a webes szempontból fontos ASP.NET-re és JSP-re gondolok. Persze lehet mondani, hogy alapvetően rossz a példa, na meg lehetetlen normális adatot találni arról, hogy mennyi webhely halna meg JSP nélkül és mennyi ASP.NET nélkül.

Tételezzük fel, hogy nem történik armageddon, hanem csak mérsékelt ütemben lesz minden egyre rosszabb, viszont az eddiginél jobban bekapcsolódnak a fejlesztés vérkeringésébe azok az országok, amik még kevésbé vannak benne a bizniszben. Remek kérdés, hogy ha összességében több fejlesztő lesz, ezzel együtt több kiugróan tehetséges, na meg zseni lesz-e, akik egyébként most még nem vehetnék ki a részüket a fejlesztésből érezhető mértékben az életkörülményeik miatt vagy egyszerűen az igényeik miatt. Azaz például a Piréz-szigeteken élő fejlesztők nagyobb felelősséggel járó melókat is megkapnak majd a világ túloldaláról, na meg jóval több pénzt. Most körülbelül két és fél milliárd ember tud netezni, mindenki más pedig úgy, ahogyan jut internethez vagy sehogy, de mindenesetre abban a még néhány százmillió emberben is jelen lehet a potenciál, akik most még nem neteznek. Az ugye már nagyon-nagyon nem reális, hogy az egyik körbe sem tartozó éhező néhány milliárd közül tömegesen kezdjenek el programozással foglalkozni, főleg úgy nem, hogy kivegyék a részüket a technológiai csapásirányok meghatározásában.

Oké, oké, a következő, harmadik lehetséges perspektívát az ország egyik legnagyobb ITsec stratégájától loptam két sör közt egyik este, aztán finomítottam rajta: idővel olyan bonyolultak lesznek a szoftverrendszerek, hogy azt most még nem létező vagy létező, de még nem elterjedt, mesterséges intelligenciára épülő gépek fogják tesztelgeti és fejlesztgetni, ami pedig a lényeg: döntéseket hozva, felelősségteljesen. Pár évvel ezelőtt írtak róla, hogy amikor a konyhanyelvi értelembe vett mesterséges intelligencia került szóba, mindenkinek az ugrott be, hogy jön a Terminátor meg Terminátorné, aztán jól leigázzák az emberiséget, annyira fog függeni a géptől az emberiség, amire pedig kitér a cikk, hogy már évtizedek óta függünk a gépektől, csak nem vesszük észre. Ha belegondolunk, hogy egy-egy banki rendszer, netszolgáltató, vagy bármilyen telekommunikációs rendszer kiesésének vagy hibás működésének társadalmi hatása időről időre egyre nagyobb, ez teljesen világos. Az viszont már eléggé para lenne, ha az emberek még kevésbé látnák át a mostani rendszereket – mivel azokat gépek készítenék - ennek megfelelően a mostanság alkalmazott tesztek használhatósága is csökkenne, aztán az egész szoftveripar jövőjéről nagy és okos gépek döntenének, nagy és okos gépek kiviteleznék. Az embereket persze csak az érdekelné, hogy továbbra is működjön minden elérhető költséghatékonysággal, az viszont már nem érdekelné a feltétlenül szükségesnél jobban őket, hogy mindez hogyan valósul meg. Az IT-szakembereket már jobban, de ők is emberből vannak, ha pedig már képtelenek lennének áttekinteni a gépek által írt termékeket és tesztelni azokat, idővel fel is adnák. Ez persze magába hordozza annak a lehetőségét, hogy az emberi döntések háttérbe szorulásával a gépek sarokba szorítják majd az emberiséget, csak a sci-fi írók heppje az, hogy a tudatos és okos gépek feltétlenül gonoszak is. Persze lehetnének azok is, csak valahogy egymást gyilkolászni túl emberinek tűnik nekem.

Vannak még alternatívák? Biztosan.

Végül, kiugorva egy kicsit a poszt eddigi logikai menetéből, még egy általános tapasztalatot meg kell osztanom, ami gyakran megakasztja a minőségi csapatmunkát. Mégpedig az, hogy sokszor azért nem készül el – a lehetőségekhez mérten legjobb – specifikáció, mert a fejlesztők nem látják át eléggé a problémát, ami nélkül az algoritmustervezés és a projekt ütemezése el sem kezdhető. Ha konkrétabban akarok fogalmazni, nem várható el, hogy egy üzleti intelligencia alkalmazás tervezésekor a programozó tudása legyen teljesen naprakész BI-téren, ahogy egy bioinformatikai vagy keminformatikai megoldás összetákolásánál sem várható el tőlük, hogy naprakész tudással rendelkezzenek a molekuláris biológiában és a farmakológiában. Az viszont a piacképesség és a hatékonyság szempontjából másokhoz képest hatalmas előny, ha a legkülönbözőbb területeken a fejlesztő legalább az alapfogalmakkal tisztában van, legyen szó akár nyelvészetről, akár üzleti folyamatok modellezéséről, meg úgy egyáltalán bármiről. Az alapfogalmak persze még nem lesznek elegendőek ahhoz, hogy rögtön el tudja készíteni a specifikációt a vezető fejlesztő, ahhoz viszont igen, hogy elfogadható idő alatt megértse a feladatot, ha utánanéz. Azaz szakbarbárnak lenni nem csak kínos, hanem hátrányos is, mert több-kevesebb természettudományi, társadalomtudományi és stabil matematikai ismeret nélkül a fejlesztő lehet egy jó robot, aki megcsinálja, amit elé tesznek, de annál nem sokkal több. Nem csak az előbb fejtegetett ok miatt, hanem azért sem, mert a különböző tudományágak különböző szemléletmódot igényelnek, így a folyamatos tájékozódás minden területen az egész gondolkodási képességet tartja kondiban, ideértve az intuitív képességeket és a kreativitást. Jobb helyeken ugyan az egyetemek előírják, hogy a szakmai törzsanyagon és a specializációhoz szükséges tárgyakon kívül még valamennyit választható tárgyakból is fel kell venni, amik nem kapcsolódnak a szak tárgyaihoz, sejthető, hogy ez mennyit változtat a helyzeten.

Képek innen: https://www.ofs.edu.sg/resources/ms-un-interdisciplinary-units/unesco-and-our-world-heritage-of-personal-and-cultural-expression/space-research-programs/ , http://blogs.scientificamerican.com/cross-check/2012/12/10/can-engineers-and-scientists-ever-master-complexity/ , http://www.elinext.com/tipstesting , http://www.shapia.com/software-testing.html , http://blog.qatestlab.com/2012/10/23/software-testing-by-human-or-machine-what-shouldshouldnt-be-automated/ , https://www.cs.duke.edu/brd/Teaching/Previous/AI/

3 Tovább

Van-e Debrecennek normális helyi sajtója?


Emlékszem, még kisegyetemista voltam, amikor átköltöztettem a blogom a Blogspotról a blog.hu rendszerébe és kissé éretlen stílusban, ámde annál nagyobb vehemenciával írtam az élet értelméről, na meg úgy mindenről, ami eszembe jutott. Nem lennék meglepve, ha kiderülne, hogy én voltam az első debreceni blogger, - már ha átugorjuk azt a roppant fárasztó kérdést, hogy mit tekintünk blognak és mit hírportálnak - mert saját blogos tartalmakat már az előtt elkezdtem gyártani gimnazista koromban, amikor még nem is a blogspotra toltam a kontentot. Ami pedig a bloghu-s azonosítómat illeti, emlékeim szerint az első ezer felhasználó egyike voltam. Ennek amúgy nincs is különösebb jelentősége, ha már Debrecennél tartunk, Sixx alighanem korábban kezdte vagy éppenséggel Dr. Twitter, akikhez persze nem érek fel, lényeg, hogy Debrecen nem a kontentbirodalom kulturális bölcsője, az biztos, mivel annak idején magyarázni kellett a többieknek, hogy mi is az a blog.

Ami viszont minimum elgondolkodtató, hogy többen hogyan viszonyultak ahhoz, ha valaki saját véleményt mert megfogalmazni. Azóta a bloggeri tudatosságom - már ha egyáltalán van ilyen - sokat változott olyan téren, hogy közéleti vagy politikai témában legfeljebb akkor írnék saját néven, ha a maffia vagy esetleg valami reggeli tévéműsort vezető, önmagát tényfeltáró újságírónak aposztrofáló sztárfasz kilógatna a Debreceni Egyetem főépületének harmadik emeletéről, ezzel a kockázattal viszont már nem kell számolnom, mivel már nem nagyon fordulok elő Debrecenben. Vélemény az, ami érzékenységet sért, ezzel nagyjából minden írástudó tisztában van, ha ezt a gondolatot továbbviszem, egy közösség kulturáltságának nagyon jó indikátora, hogy egy-egy véleményre miként reagál, az ellenvéleményét vagy nemtetszését hogyan fejezei ki. Nos, annak idején az ősblogomon nem voltak ritkák az anonim ordenáré anyázások, amiről egyértelmű volt, hogy valamelyik évfolyamtársamtól száramznak, egy másik kultúrlény konkrétan az egyetemen személyesen baszott le amiatt, hogy milyen jelzőkkel illettem az egyházat. Gondoltam magamban, Isten hozott a webkettő szép, új világában! Később, 2010-ben, amikor az egyetem akkori rektora, Fésüs prof. nyugdíjba ment, az én blogomon megjelent, vele kapcsolatos sorokat is beemelték a búcsúztató beszédbe, ezen kívül természetesen volt még sokminden a Google Analytics adatain kívül is, ami motivált, hogy érdemes foglalkozni ezzel.

De attól még általánosnak éreztem, hogy szinte renitens dolognak számított az, hogy valakinek van saját véleménye. Debrecenben. A közösségi web hajnalán. Miközben láttam, hogy magasabb szintű internetezési kultúrával rendelkező országokban a felhasználói tartalom és egyáltalán a blogszféra jön fel ezerrel, de Budapesten is érezhetően máshogy viszonyultak ahhoz, ha valaki blogot ír.

Most nem játszanám a világvárosi faszagyereket, de nem lenne teljes a kép, ha nem írnám le, hogy Debrecen anno ezen a téren maga volt az abszolút vidék, mi több, a tehénszaros Alföld. Pedig voltak kitűnő helyi oldalak, de sajnos egyre kevesebben emlékeznek már a Basahalom Boulevardra vagy éppenséggel a Holdrabló Blogra amiről már szinte csak a Wayback Machine emlékszik meg.

Komolyan nem hittem volna, hogy bárki valaha is össze tud gründolni egy olyan csapatot, amelyik olvasható, értékteremtő és saját stílussal rendelkező webes tartalmat tud futtatni kimondottan debreceni témákkal és olvassák is. Aztán megjelent a 4024.hu, ami szépen megmutatta, hogy a tartalomszolgáltatásban a siker tényleg az eredetiségtől függ és semmiképp sem attól, hogy mondjuk valaki hogyan próbálja rommá SEO-zni az oldalát vagy hány talicska pénzt hagy ott valami onlájnmarketingesatyaúristennél, ahogy erről írtam is egy korábbi posztomban.

Ugyan ahogy ők maguk is írták, a 4024.hu megjelensésében nagyon hasonlítotott a 444.hu-ra, stílusában szintén bőven vannak olyan elemek, amiből látszik, hogy a szerzők nem valami se íze, se bűze pártlapon szocializálódtak, inkább a 444-es vonalra hajaz, annál jobb. Egy portál vagy blog eleve nem lehet copycat, hiszen pont a szerzők unikális stílusa és értelmezése az, ami a hozzáadott érték legnagyobb részét jelenti. Ja, ha már itt tartunk, a webergonómiai, dizájn kialakítás viszont lopható, ahogy pont a 4024.hu-től nemrég a Cívishír csicskafirkászai lopták is.

Ami azt illeti, innen jó messziről is titkon évek óta reméltem, hogy a közpénznyelő, de értékelhetetlen minőségű helyi lapokat, mint a Dehir vagy a Cívishír, valaki majd jól pofánveri, de úgy igazából, hogy az országos sajtó [értsd: egyéb, régebbről jól ismert, meghatározó hírportál] adja a másikat, a 4024-ék megteszik rendszeresen, nagyon helyesen. A világot megváltani ugyan egy pillanat alatt nem lehet, a kritikus, normális tájékoztatás elengedhetetlen ahhoz, hogy folyamatként kialakulhasson az a típusú kritikus, árnyaltabb gondolkodás a zemberek fejében, ami mentén idővel egyértelmű lesz a különbség a demagóg gyökérségek és a jóléti államokra jellemző, racionálisan elvek mentén alakuló véleménykultúrában megjelenő mondandók között. A 4024.hu-t a Facebookon erre szeresd, a fenti fotót is onnan loptam.

0 Tovább

A kutató mint színész a tudomány színházában


A középiskolások tehetséggondozásával évtizedek óta foglalkozó Csermely profnak volt egy TED talkja, amiben többek közt arról is beszélt, hogy hogyan orvgyilkolható le egy teljesen nyitott diák érdeklődése egy-egy téma iránt, rosszabb esetben teljesen és végleg.

Tegnap vittem magammal egy tudományos meetupra egy elitgimnáziumban tanuló, ott is 4,5+os átlagot villantó diákot a SZTAKIba, hogy lássa, a nyelvtechnológia milyen csudajó dolog. Nem láttuk az összes előadást, az a három pedig, amit igen, nem csak emberiségellenesen bűn rossz volt, valósággal kínzott-büntetett, ha készült videófelvétel a "performanszokról", alighanem érdemes lenne lepasszolni a felvételt CIA-nak, hogy Guantanamoban a loopolt lejátszásukkal vallassák a terroristákat full HD képernyő és Dolby Surround mellett.

Nem tudom, hogy ki mondta, de legalább félig igaz: mindegy, hogy mit csinálsz, ha azt nem tudod úgy előadni pár perc alatt, hogy egy általános iskolás is megértse, alighanem valami alapvetően el van cseszve. Miért?

Félve írom, de ha valaki nem tudja kifejezni magát a többiek előtt elfogadható szinten, legyen klasszikus értelemben akár jó, akár rossz előadó, erősen gyanus, hogy ő maga sem érti vagy látja át, amiről beszél, számomra mondjuk teljesen más műfaj előadást tartani, na meg utána még beszélni róla a többiekkel kötetlenül. Találkoztam már olyan esettel, hogy a bűn rossz egyetemi előadás után azt hittem, hogy az előadó szimplán nem tud, aztán amikor előadás után kérdeztem tőle, mintha átvedlett volna és minden kérdésre olyan nívós választ adott, hogy csak pislogtam. Kivételek persze vannak, amikor egy nagytudású előadó tart egy iszonyúan tré előadást, még akkor is érződik, hogy az előadó tudja, hogy miről beszél, de kevésbé lesz emlékezetes. Míg ha valaki beszél egy témáról, amiről mondjuk kimondottan keveset tud, de mesterien adja elő, a hallgatóság pici része levágja, hogy nincs a mondóka mögött olyan dörgedelmes mennyiségű szaktudás, a nagyobb része pedig élvezi, mi több, gyakori, hogy nem csak jobb előadónak, jobb szakértőnek is fogja tartani.

Kivétel persze minden alól van, 3-4 éves lehettem, amikor megállapították, hogy én márpedig soha az életbe nem fogok érthetően beszélni és az írás is maximum csökkentett módban megy majd. Nagyon korán megtanultam olvasni és hangosan próbáltam olvasni veszett hosszú könyveket, amiket találtam otthon, de érdekesség, hogy csak olyan 5-6 éves koromtól tudnám felidézni, hogy mit is olvastam akkor. Már általános iskolába kerülhettem, amikorra alighanem ember meg nem mondta volna meg, hogy a beszédemmel valami nem volt rendben, amit viszont sokan nem tudnak, hogy a beszédkészségemet a mai napig trenírozni kell hangosolvasással, különben egy idő után nem tudnám kifejezni magam az anyanyelvemen, amihez egy dadogásszerű beszéd és valszeg valamilyen rettegett afázia társulna lévén, hogy a neuropszichológiai működések egy része hajlamos visszagravitálni az eredeti állapotába. Azaz mondjuk biciklizni nem lehet elfelejteni, viszont a hiedelemmel ellentétben az anyanyelvét is simán elfelejtheti egy (egészséges) ember is.

A tegnapi meetupon hacreddzett elitgimnazista alanyunk próbált figyelni és megérteni a bűn rossz előadásokat, de mindössze egy órán keresztül sikerült neki. Kitűnő minőségmérő faktora lehet egy előadásnak és a diáknak is, hogy mikor kerül elő az okosmobil. Aki gimnazistaként kötelező jelleggel napi 5-7 órát ül a padban naponta úgy, a tanórák hagyományosan csak minimális interakciót engednek, testmozgást pedig semennyit - mi ezt már el sem tudjuk képzelni, egy tanár viszont kipróbálta önmagán és két napig bírta - n+1-szer meggondolja, hogy padba ül-e, ha nem muszáj, ha pedig már beült valahova, sokat mondó, hogy hogyan reagál, ha feltételezzük, hogy érdekli a téma, hiszen azért van ott.  

Amikor mentünk haza, először azt tisztáztam, hogy ha nem élvezte és nem értette, nem azért történt, mert az ő készülékében lenne a hiba, az meg már egy kevésbé védhető dolog volt, hogy a nyelvtechnológia tényleg cool dolog, érdemes meetupra jönnie máskor is.

A tegnapi meetupból kiindulva összeszedtem néhány finomságot, amit ha az előadók és a szervezők nem tartanak be, azzal akár egy pici meetupot, akár egy több ezer résztvevős kongresszust kasztrálhatnak.

0x100. Elemi...
0x110. Ha az előadás nem lett elpróbálva, az előadónak már a diasor összerakásakor úgy kellene gondolkoznia, hogy a hallgatósághoz is beszél, nem pedig önmagában, ez ugyanis kiküszöböli többek közt a didaktikai-logikai jumpokat, leesik, hogy mi az, amit triviálisként kezelünk, de a többiek számára nem feltétlenül az, így bővebb kifejtésre szorul és sorolhatnám.


0x120. Ha a hallgtóság nem érti meg az első fél percben, hogy a szóban forgó - akár teljesen új - témát milyen keretbe helyezze, milyen korábbi ismereteihez kapcsolja hozzá, szar az egész, így műhiba értékű kihagyni az elején annak az ismertetését, hogy (1) miről lesz szó, (2) mi a haszna/miért cool ÉS amennyire lehet, venni a feedbacket a hallgatóság felől, ha nagyon nem értik, akkor a bevezetésre kicsit több idő szánható.


0x130. Minden elhagyható, ami nem feltétlenül szükséges! Miután a saját diasorunkat ilyen szempontból ellenőriztük egyszer, ellenőrizzük még egyszer. Aztán még háromszor. Na ugye, hogy jobb lett? :)


0x140. Alighanem a tengerentúlról jött az az idióta manír, hogy a prezentáció elején a bemutatkozáson túl az előadó storytellinges felütéssel olyan,  a téma szempontjából irreleváns dolgokról kezd beszélni, hogy amúgy imádja a kutyáit, lovait, vadászgörényét, unokáit van egy három hónapos kisfia, aki most mindenkinek szeme fénye, hogyegyemmeg és hasonlók. Aki ismeri az előadót, úgyis tudja, aki pedig nem, az nemcsak, hogy leszarja, hanem valósággal úgy irritálja, mint amikor a Facebook falon megjelenik 200 friss babafotó. Nem tudom, hogy eddig volt-e eddig ember a Földön, aki ezt le merte írni, én most megejtettem: csodálatos dolog a gyermekáltás/unoka, de a szülőkön és a rokonokon kívül baromira senkit sem érdekel, egy konferencián meg pláne nem.

Ugyanakkor a bemutatkozásnál értelemszerűen fontos lehet, ha fent van a dián, hogy mennyi ideje foglalkozik az előadó a témával és a hallgatóság figyelmét rendszerint felélénkíti például a diszkréten odabiggyesztett, jól kinéző  OSCE vagy CHFI titulus például egy ITsec dzsembori esetén.


0x150. Az egész prezentációban a betűméret legyen olyan nagy, amekkora csak lehet, mert ha azzal vannak többen elfoglalva, hogy mi is van ott a síkon távolba, nemcsak megtöri, de el is terelheti a figyelmet, egy idő után pedig már nem is próbálja kibogarászni a hallgatóság, hogy mi van a dián.


0x160. Vázlatot vetítünk! Ha feltételezzük, hogy a hallgatóságunk tagjai tudnak olvasni, csak kulcsszavak és ábrák kerülhetnek egy átlagos diára ÉS semmiképp sem tartalmaz háromnál több tézisszerű megállapítást illetve öt-hétnél több logikai következtetést!  


0x170. Sok hallgató előtt fontos, hogy még akkor is tudjuk megtartani az előadást, ha mondjuk, elfüstölt a projektor, áramszünet vagy ufótámadás van, a slideokat a hallgatóságnak készítettük, nem pedig saját magunknak, puskaként.

Amiket eddig írtam, szerintem annyira elemiek, hogy az ettől való eltérés bármilyen előadást menthetetlenül gallyra vághat, mivel vagy valamilyen módon a figyelem elterelődik vagy a figyelem annyira lelankad, hogy az egész előadást fölösleges megtartani.

0x210. Konferencián, meetupon legalább 45 percenként legyen kisurranási lehetőség, 1-1,5 óránként pedig egy pisiszünet, amiben át lehet ülni más mellé vagy éppenséggel az előző előadót lehet kérdezni. Ha csak az összes előadás lezavarása után van lehetőség kérdezni, egyrészt addigra egyáltalán maga az intenció, hogy valaki kérdezzen, amire eredetileg kíváncsi volt, drámai mértékben lecsökken, másrészt az elhangzott logikai összefüggések mindenki emlékezetében valamivel kevésbé lesznek frissek, mivel azokat a rákövetkező 3-4 előadás információtartalma és számos más inger részben felülírja [l. Bevezetés a tanulás lélektanába, P. Bednorz - M. Schuster]

0x220. Sok-sok megfigyelés igazolja, hogy az előadások közti beszélgetések, esetleg a szekciót követő sörözés szakmai értéke jóval meghaladja magának az előadásnak a szakmai értékét! A szünetek elhagyásával időt spórolni IMHO egyenesen tilos! Mivel ahogy írtam többször is, a tanulási és együtt-gondolkodási  folyamat része.

0x230. Az a vélemény, hogy egy kutatónak nem kell tudnia elfogadható szinten előadnia magát, veszélyes hülyeség. Ugyanis a szakmai összeröffenéseken látottak, hallottak visszahatnak a közösség önképére, azaz ha lemegy több bűn rossz előadás, annak a hatása nem csak annyi, hogy konstatáljuk: "ezdeszarvolt", a többi kutató is elbizonytalanodhat, ne adj' isten átmenetileg kiábrándultabbá válhat, a jó előadások viszont segítenek megelőzni a kiégést.

Tudnunk kell előadni és eladni önmagunkat. Több kultúrában akár egy CEO részvényárfolyamot megcibáló bejelentéséről, akár egy alapkutatási témában tartott előadásról van szó, kisebb vagy nagyobb mértékben show-t kell csinálni, nem véletlen. Az okoskodóknak jelzem, hogy a jól eltalált performansz szórakoztató elemei, akár egy vicces animgif a slideon, akár egy merész nyelvi manőver, nem, nem fogják elterelni a lényegről a figyelmet, pont ellenkezőleg, fenntartják az éberséget a hallgatóságban, így a témát is könnyebben és persze élvezetesebben fogadják be.

Hogy a tengerentúli konferenciákon, ITsec terepen milyen kultúrája van mindennek, többek közt a Buhera Blogon lehetett olvasni korábban.

Többen úgy vélhetik, hogy a megszokott retorikai módszerektől való eltérés tudományos és üzleti közegben - legyen szó akár egy tudományos szempontból helyes, de botrányosan megfogalmazott megállapítástól, akár Steve Ballmer legendás üvöltözéséről - egyszerűen nem passzolnak bele az előadások [tág értelembe véve] megszokott kultúrájába. Nos, nekik érdemes végiggondolniuk, hogy a pedagógiának, didaktikának milyen módszertani változtatásokat kellett eszközölnie a 20. század második felétől ahhoz, hogy egyáltalán működőképes maradjon!

Mindegy is, hogy konvencionális vagy amerikai-stílusú előadásról van szó, lényeg, hogy a felsoroltak mellett azt kell különösen gyakorolni, hogy úgy gondolkozzon hangosan az előadó, hogy közben nem tér el a témától, amit kitéve-betéve ismernie kell. Ugyanakkor velem volt már, hogy előadtam és görcsösen ragaszkodtam ahhoz a tematikai sorrendhez, amit előre terveztem, sokat markoltam, keveset fogtam, tragikusan rossz előadás sült ki belőle, ami amúgy életem egyik legfontosabb előadása volt. 

Hozzáteszem, egy-egy botlás az előadáson pont annyira zavaró, amennyire azt a hallgatóság észreveszi az előadón. Szóval ha lefagy a prezi, lángcsóva kíséretében lesz zárlatos az előző nap vett laptopunk, amiről a prezi megy, keep calm and continue.

Amondó vagyok, hogy minden kutatónak, szakértőnek valamilyen szinten felelőssége az ismeretterjesztés, rendszeresen emlékeztetnie kell a tudomány elefántcsonttornyán kívül lakókat, hogy ő is létezik és mit csinál.

Ehhez látszólag egész meredek, de szórakoztató módszereket is választottak már, mint amilyen Ali G interjúja Noam Chomsyval,  vagy éppen Heinz Wolff-fal vagy a Nobel-díjas Jerome Isaac Friedmannel.



Kiábrándult értelmiségi képek innen meg innen.

0 Tovább

Ilyen ez a popszakma: plágium, Shakira, biztonsági ellenőrzés epic fail


Azt hiszem, hogy ha ez a hét így folytatódik tovább, már péntekre végkimerülésig röhögöm magam.

A 444.hu nemrég közölte, hogy a Fidesz nekiállt kozmetikázni a fél internetet,  Schmitt Pál nemdoktor még mindig azt gondolja magáról, hogy doktor, velem pedig tegnap történt egy igencsak sírvaröhögős dolog, ami nyelvészül fogalmazva "a bizonyossággal határos valószínűséggel"  mutatja, hogy a legjobb sztorikat tényleg az élet írja. Igen, ha "popszakmáról" van szó, akkor is.

Történt ugyanis, hogy olyan helyre kellett mennem, ahova nagyon nem ajánlott bevinni dobókést, vállról indítható rakétát, kézigránátot illetve úgy semmit, ami veszélyesebb egy fogpiszkálónál. Ennek megfelelően a szóban forgó épület bejáratánál, ahogy azt a policy megköveteli, még a mágneskapu előtt kihámoztam a zsebeimből az összes aprót, mobilt, diktafont és egyéb fémtárgyat, a táskám pedig szépen átgurult a röntgenszalagon. Mivel tudtam, hogy hova megyek, ezért eleve nem is vittem magammal a 9 mm-es csúzlim. A bejáratnál a masina mégis besípolt, a biztonsági személyzet egyik tagja pedig mondta, hogy kés van a táskámban, mire mondtam, hogy biztos, hogy nincs, de átkotorhatja, ha szeretné. Nem kotorta át, inkább még egyszer átgurították a szkenneren, majd megállapították, hogy mégsincs benne kés, alighanem a tolltartómban összeálló tollakat nézhették annak. Aztán  amikor végeztem, kifelé menet jutott eszembe, hogy a csúzli otthon van ugyan, de a táskám belső zsebében  bent felejtettem egy teljes tárnyi töltényt. Na ekkor kezdtem el magamban fohászkodni Sevillai Szent Izidorhoz, az informatikusok védőszentjéhez, hogy kifelé nehogy megállítsanak, mert azt már kínosabb lett volna kimagyarázni, mint egy rotyogós fingot egy diplomáciai állófogadáson.

Végül nem volt semmi dráma és mentem ebédelni, közben pedig azon agyaltam, hogy a táskámban lévő tonnányi papír vagy a laptopom árnyékolta ki a para tárgyát, ha meg a töltényeket nézte tolltartónak a biztonsági személyzet, akkor vajon minek nézhette a tolltartómat?

Minden kedves ismerősöm lenyugodhat, még szabadlábon vagyok, ha pedig már szóba került ennyi epic fail, hallgassuk meg Shakira Loca című örök klasszikus plagizált,  ámde annál dallamosabb számát, amivel kapcsolatban a magyar sajtó is beszámolt róla, hogy a számot eredetileg Ramon Arias Vasquez Loca con su tíguere címmel szerezte még évekkel korábban. A New York-i bíróság pedig jogerősen kimondta, hogy a Sony, mint kiadó megsértette az eredeti szerző szellemi tulajdonhoz való jogát, ugyan nem igazán hámozható ki, hogy ez konkrétan a művésznő részéről mennyire volt tudatos.

Ha valakit érdekel, hogy milyen baromira körülményes a bíróság előtt egy full egyszerűnek tűnő plágiumügyet bizonyítani, a 40 oldalas PDF-et innen töltheti le.

Ami a bírósági dokumentumot illeti, tényleg nem én loptam ki :)



Az illusztrációként szolgáló kép forrása: http://www.lexisnexis.com/legalnewsroom/litigation/b/litigation-blog/archive/2012/04/06/safe-harbor-ruling-vacated-in-1-billion-youtube-copyright-case.aspx

0 Tovább

Pszichopaták, stalkerek és unatkozó hülyék a neten


Nemrég az egyik nagy kertévé készített egy erősen B-kategóriás riportot azzal kapcsolatban, hogy milyen pszichopaták lézengenek a netes társkereső oldalakon, ugyan ezzel egyáltalán nem foglalkoznék az ordas nagy csúsztatások, újságírói szempontból a bulvárt-jelleget csúcsra járató stílus és a fájdalmas egyszerűsítések miatt, ha nem szólaltatták volna meg Krasznay Csabát, aki széles körben az egyik legelismertebb kiberbiztonsági szakértő.

A riport röviden arról szól, hogy a nagyokos, überszuper tényfeltáró újságírókisasszony felregisztrált az egyik legnagyobb hazai társkereső oldalra, majd elkezdett csevegni egy - később látni fogjuk - nyilvánvalóan fake felhasználóval, aki nem a saját képeit használta, a végén pedig jött a nagy-nagy lebuktatás-szembesítés egy Google-kereséssel. Azon sem lennék meglepve, ha a szuperzsurnaliszta a saját nevével, képeivel és mobilszámával végezte volna a "kutatást", na de ne szaladjunk annyira előre. Aztán jött az elmaradhatatlan pszichológusi "szakvélemény", ami vagy tényleg borzalmasan felületes és közhelyes volt, ami viszont a végeredmény, hogy teljesen hamis képest fest erről az egész jelenségről és a végén nem kevesebbet sütnek ki, minthogy a megcsípett pofa pszichopata vagy szociopata volt...

Mióta az eszemet tudom, érdekelnek a magatartástudományok és éppen három éve, hogy intenzíven elkezdtem kutatni a közösségi hálózatokat nem hagyományos módon használó felhasználók viselkedését a pszichikus nyomok, a szövegnyelvészet, az anonimizálási technikák elemzésének és a józan eszem felhasználásával. Azóta vagy így, vagy úgy nagyon sok felhasználót csíptem el, akik potenciálisan veszélyeset voltak.

Egy korábbi posztomban [amire valamikor még visszatérek ígéretemnek megfelelően] írtam már olyan közösségi szolgáltatásokról, ahova nem mehet be csak úgy bárki, mint a Pingsta.com, az Internations, a Bestofallworlds vagy a Quibb. Nos, ahova anno kerültem, még ennél is kritikusabb szolgáltatás volt több olyan szempontból, hogy megengedhetetlen volt, hogy valaki kamu névvel legyen fenn. Akkoriban időm volt, mint a tenger. Egy ilyen VIP-közösségi oldalon észleltem egy felhasználót, aki több szempontból is gyanus volt, ami pedig abszolút perdöntő, hogy bizonyítottan más képét használta fel, de olyan hülyén, hogy azt még a Google Képkereső szolgáltatása is azonnal kiköpte. A felhasználót jelentettem, nagyon megköszönték, kirúgták és böngésztem még egy kicsit, így találtam még 2-3 ilyen felhasználót, akikről szintén kiderült, hogy kamu-júzerek és átverési céllal vannak fenn. Aztán a szolgáltatás egyik fejesétől kaptam egy emailt, hogy lenne-e kedvem további vadászgatásra, amire persze igent mondtam.

Nos, azt a melót már régen nem csinálom, viszont a fake felhasználókat a nagyobb és kommerszebb webkettes szolgáltatásokban azonnal észlelem, ennek később lett jelentősége.

Nem titok, hogy a Facebookon keresztül végzek szociálpszichológiai kutatásokat, ahol természetesen több, nem saját saját nevemen futó felhasználót alkalmazok. Az egyik kísérletemben olyan elképesztő mennyiségű álarc mögé bújt felhasználó jelölte a teszt felhasználómat, hogy szó szoros értelemben irtani kellett őket, hogy az alaposan megtervezett kísérletet ne befolyásolják. A tesztjúzereim a szóban forgó kísérletben: egy vonzó külsejű bögyös hölgy, egy 16 éves, ámde vén pedomacikat mágnesként vonzó kisfiú és egy Adonisz kinézetű srác. Mondanom sem kell, hogy mindet jelölték hűvös halomra, de annyian, hogy a korlátot csak az jelentette, hogy a Facebookon maximum 5000 felhasználója lehet valakinek, a kamu identitással kapcsolatot létesíteni próbáló felhasználóból elképesztően sok volt. Ennek a tanulságairól írnék szigorúan csak olyan aspektusból, hogy milyen motiváció vezérli az embereket, amikor álarc mögé bújnak. 

A. kategória - ilyenről van szó az RTL Klub riportjában.
  1. indítékuk: ha ideig-óráig egy sikeres, jól kinéző ember identitását veszi fel, népszerű lesz, rommá lájkolják a képeit, annak ellenére, hogy ordít a fake-jelleg, egy targoncányi levelet kap. Ez növeli az egójukat és mivel a kibertérben jobban érzik magukat más bőrében, mint a valóságban, a Facebookra valósággal úgy szoknak rá, mint a heroinra a folytonos megerősítés miatt. És még egy nagyon fontos dolog: az unalom!
  2. módszereik: kamu kép, ismeretlenek jelölgetése ezerrel, társkeresős csoportokhoz való csatlakozás és persze ottani menőzés
  3. azonosítás: ezeknek az embereknek szinte mindegyike nagyon buta. Annyira, hogy olyan képet használnak fel, hogy azt a Google Képkereső azonnal köpi illetve a neten semmilyen további forrás, magyarul létezésükre utaló nyom nem található a nevük alapján. Nagyon gyakoriak az ordító nyelvtani hibák a szövegeikben, mivel alapvetően ostobák.
  4. egyéb: általában veszélytelen hülyék, esetleg stalkerek, akik élvezik, hogy valaki ismerőseként többet láthatnak más magánéletéből

B. kategória
  1. indíték: az anonimitásuk megőrzése egyszerűen kamu, de sokszor gyakori, valódinak tűnő névvel. Szintén gyakori motiváció az unalom.
  2. módszereik: nem vagy csak ritkán használják más képeit - viszont sokszor megtévesztő módon! - illetve a kamu név
  3. azonosítás: ellentmondásos információk, olyan tartalmak megosztása, amit egyébként az illető a valódi nevével nem vállalna, azaz a másik, valódi accountjával, saját nevén. A pszichikus nyomok és hasonló mondatszerkesztési stílus használata más, létező felhasználóéhoz [ami a saját, való FB-profiljuk] hasonló, ami ugyebár egyre jobban kereshető
  4. egyéb: elképzelhető, ha az anonimitásukat azért használják, hogy feltérképezzek a terepet, annak megállapítására, hogy kinek a személye lehet számukra érdekes. Az esetek döntő többségében szintén ártalmatlanok.

C. kategória - stalkerek, azaz kukkolók, egyebek
Indíték, módszerek, azonosítás: a B-csoportra jellemzőek, ehhez jön még az unalom, de már egyértelmű haszonszerzési céllal. Például valamilyen szolgáltatás felfuttatása, ami esetenként közvetett anyagi haszonszerzéssel jár. Konkrétabban fogalmazva még korábban, amikor boldogot-boldogtalant felvettem ismerősnek, megjelent egy csinos maca - akiket elképesztő valószínűséggel jelölnek vissza ismerősként az átlagos felhasználók - így tették ezt az ismerőseim is. Mivel a kibertéri nagyasszony engem is bejelölt ismeretlenül, azonnal hajítottam a Google Képkeresőbe, amiből kiderült, hogy egy ruszki modell képét használta. A fala pedig tele volt, hogy-hogynem ugyanarra a frissen indított hírportálra való hivatkozással. Kb. néhány perc billentyűzéssel nem csak azt állapítottam meg, hogy a felhasználót nyilván azért hozták létre, hogy valami fos online lapnak termeljen olvasottságot, de még azt is, hogy személy szerint konkrétan ki állt a profil mögött. A dolog pikantériája, hogy amikor mindezt megírtam annak a 15-20 távoli ismerősömnek, akik az kamu júzer ismerősei közt voltak, alig volt valaki, aki ennek ellenére törölte volna az ismerősei közül, néhányan pedig a fejemhez vágták, hogy minek foglalkozok ezzel. No comment. Azóta persze a public bardóczi ákos account bezárt, olyan értelemben, hogy engem ne jelölgessen a vérciki általános iskolai osztálytársak egyike vagy éppen egy laza ismerős sültbunkó párja sem 80-as IQ-val. Kell a francnak másodlagos FB-account tele idiótákkal.
Egyéb az ilyen típusú fakererről: veszélytelen, de halálosan idegesítő, hiszen tisztességes ember egy tartalmat vagy fizetett hirdetéssel hypeol vagy olyan accounttal, ami nem valódi ugyan, viszont a felhasználók eleve úgy veszik fel ismerősnek, hogy erről tudnak. Azaz például, ha egy blogger jól ismert fantázianévvel regisztrál, nyilván kivétel, viszont a Facebook T&C-je szerint ha valaki nem valódi névvel használja a Kéktaknyot, bármikor kérhetik, hogy igazolja magát a személyi igazolványának scanjének beküldésével, különben a fiókot jegelik.

D. kategória
  1. indíték: kimondottan kártékony, erőszakos bűncselekmény szándéka
  2. módszereik: kamu identitás felvétele, ezt követően tipikusan nőkkel, zsarolható fiatal melegekkel vagy gyerekekkel vesznek fel kapcsolatot, majd találkozóra csalják őket
  2.1. általában olyan helyre, ami nem eléggé forgalmas ahhoz, hogy az áldozat ki tudjon lépni a szituációból
  2.2. az áldozat idegen kocsijába száll be vagy lakására megy el
 2.3. érdekesség, hogy az átverhetőség és naivitás sokszor köszönő viszonyban sincs az intelligenciával. Az elkövető viszont nem ritkán sokkal intelligensebbnek mutatja magát, mint amilyen, csak éppen az agya az átverésre van ráálva, ezért tűnik intelligensebbnek.
  3. azonosítás: social engineering eszközök mellett kifinomult, nyilván netes közegre adaptált OPSEC-technikákat igényel, amik bonyolultak ugyan, de nem drágák. Jópár évvel ezelőtt Sipos Zoltán, az egykori Bombagyár-staff tagja egyik projektjében igencsak jó hatásfokkal fogott így több pedofilt is. A cikk már nincs fenn az eredeti helyen, viszont a Youtube-videót mindenképp érdemes megnézni. A hatóságok is alkalmaznak fedett nyomozókat, akik fenn vannak a társkereső oldalakon, közösségi szolgáltatásokban és nem kevés erőbefektetéssel azonosítják a kártékony vagy potenciálisan kártékony felhasználókat.

Ezzel kapcsolatban egy személyes sztorit mindenképp meg kell írnom. Még sok-sok éve, amikor én magam is használtam társkereső szájtokat, írt nekem egy pofa, aki nem kertelt sokat, szinte azonnal ráment arra a témára, hogy nagyon vonzzák a kislányok, nem tudja, hogy mit tegyen és alig talál valakit, aki hasonszőrű lenne, hátha én ismerek valakit, aki szintén a kiscsajokat szereti. Először le sem esett, majd írtam neki, hogy nem ismerek, de vannak rá terápiás módszerek, amikkel az ezirányú késztetéssel együtt lehet élni és elérik, hogy az illető ne legyen pedofil bűnöző. A dolog egy idő után gyanus lett, majd rájöttem, hogy az illető egy rendőrségi fedett nyomozó hölgy volt, akinek miután ezt megírtam ezt, megdumáltuk, hogy mindketten hallgatunk, de azért egy kávét végül mégiscsak megittunk úgy szolgálaton kívül :)

  4. egyéb: pszichopátia/szociopátia felmerül, de nem minden erőszakos bűnöző pszichopata!

E. kategória - impersonalization aka evil twin
  1. indíték: kimondottan egyvalaki megszemélyesítése, a nevével és személyével való visszaélés, gyakorlatilag mindig aljas szándékkal
  2. módszereik: alaposan tanulmányozzák az áldozatról fellelhető információkat, különös tekintettel az illető ismeretségi körére. Aztán az áldozat nevében tesznek dolgokat vagy írnak lejárató szándékkal, akit csak akarnak, innen kapta a jelenség az evil twin nevet. Nos, amikor irkáltam politikai témában is, az én nevemmel is visszaéltek, mégpedig többször is és a dolog ellen szinte semmit sem tudtam tenni azon kívül, minthogy az ismerőseim figyelmét felhívtam rá. Viszont ilyenkor számolni kell azzal, hogy az emberek jobban megjegyzik azt, hogy az illető nevében mit követtek el, ami rátesz egy lapáttal a kellemetlenségre, így az áldozat megítélése fog romlani! Hasonlóan ahhoz, mint amikor valakit megerőszakolnak, nagyon sokan az áldozatot hibáztatják. Visszatérve az én esetemre, nem tudok mit kezdeni azzal a barommal, aki mondjuk egy bardocziakos@freemail.hu címről kap olyan levelet, ami sem formájában, sem tartalmában nem vall rám, de elhiszi, hogy én írtam, holott a valódi email-címem millió meg egy helyen kint van. Az email-cím ugyan minden további nélkül megmókolható, viszont a digitális aláírás, ami az összes levelemnél ott van, már szinte egyáltalán nem.
  3. azonosítás: nehézsége attól függ, hogy mennyire felkészült technikailag a kutató. Én az összes tudomásomra jutott esetben azonosítottam az elkövetőt, persze nem pereltem, sejthetik, hogy miért nem...
  4. egyéb: szintén nem feltétlenül pszichopata az elkövető és ezzel kapcsolatban eszembe jutott ismét egy kivétel. Egy tagnak valaki létrehozta az második énjét még az iWiW-érában és el nem tudta képzelni, hogy ki lehet az, majd kiderült, hogy nem egy kidobott ex volt az elkövető, hanem egy enyhén retardált unokaöcsi.

F. kategória - kifinomult csaló, célzott, haszonszerzési, csalási céllal kreált identitása olyan környezetben, ahol esélyes, hogy talál is áldozatot. Egy korábbi posztomban utaltam rá, hogy erről majd írok később.

A mostani poszt terjedelmi korlátait meghaladja, hogy részletezzem azokat a módszereket, amivel a kifinomultabb csalások azonosíthatók, ahogy most a megelőzési módszerekbe sem megyek bele, abba sem, hogy hogyan segítettem ki másokat egy-egy ilyen helyzetből, akik ismerőseim ismerősei voltak és tudták, hogy foglalkozom ezzel, ezért kérdeztek engem, hogy mit lehet tenni.

Ha esetleg az Olvasó érdeklődését annyira felkeltette a téma, hogy fake-huntingba kezdene, néhány elemi tanács:

  0. inkább bele se kezdjen!
 1. az ezzel kapcsolatos szakirodalom szegényes és szétszórt, messzemenően multidiszciplináris témáról van szó, ahogyan maga a kriminalisztika is az, amibe szintén bele kell mélyedni
  2. Az előbb emlegetett módszertan kapcsán kiemelném az OPSEC-irányelvek pontos betartását és gyakorlását, valamint azt, hogy jól létrehozni egy kísérleti identitást közel sem olyan egyszerű, mint amilyennek tűnik, hiszen mi magunknak is fake-bőrbe kell bújnunk. Mesterségesen még mindig nem generálható le olyan arc, ami nem természetellenes és még vonzó is. így nincs mese, a rosszfiúk módszerét alkalmazva valahogyan mégiscsak létező személy képét kell használni olyan módon, hogy gyakorlatilag kizárható legyen, hogy a kölcsönvett kép miatt az adott személy sérelmet szenvedjen - magyarul a világ túloldaláról kell szerezni képet - ezt a képet pedig olyan módon kell manipulálni, hogy azt a képkereső motorok ne találják meg, valódinak tűnjön. A várható előnynek jóval nagyobbnak kell lennie, mint az azzal járó morális problémával, hogy elvben ez is visszaélés más fotóival!

Ugyan high-tech módszerekkel lehetséges generálni nem létező, de annak tűnő személyeket, ez vélhetően kivételszámba meg. íme erre gondoltam, a poszt a videó alatt folytatódik:

  4. győződjön meg róla, hogy pszichológiailag alkalmas rá! Abban az esetben, ha a katonai sorozása során a 7/2006. (III. 21.) HM rendelet alapján a pszichikai alkalmassága kiváló vagy jó kategóriába tartozik, megfelel. Ha ilyen vizsgálattal nem rendelkezik, erre képesített pszichiátertől vagy klinikai szakpszichológustól tud olyan személyiségvizsgálatot kérni, amivel kizárható a paranoiditásra, skizofréniára vagy nagymértékű emociolális labilitásra való hajlam, lévén, hogy az ilyen kutatás megterhelő, a szakszerű kutatás még a pontos kísérlettervezés mellett is gyakorlatot igényel. Ez azért is fontos, hogy nehogy pszichésen belefolyjunk az általunk működtetett, kutatás eszközeként szolgáló identitásba. Súgva megjegyzem, hogy a jól elvégzett Rorschach-teszt illetve MMPI azt is kimutatja, ha a vizsgált személy csalni próbál.

  5. az OPSEC-elvek betartásán túl vegyük számításba, hogy függetlenül az elért sikerektől, különösen elővigyázatosnak kell lenni az eredmények publikálásakor vagy ha konferencián beszélünk a témáról - hiszen nem lehetünk benne biztosak, hogy az érintett elkövető nem   szerez róla tudomást, aztán ránk száll. Na, ez komoly akadály. Ugyanis a tudomány elvárja, hogy konkrétumokban fogalmazzunk, ugyanakkor ha túlságosan anonimizálunk egy-egy case studyt, a végén valami olyan rizsázás lehet belőle, amire mondhatja a hallgatóság, hogy tudományos szempontból értékelhetetlen vagy hiteltelen. Ugyanakkor én mondjuk máig bánom, hogy amikor lett volna rá lehetőségem az egy konferencián, nem inkább erről a témáról beszéltem. Még hozzáteszem, hogy a saját kísérleti felhasználónkat is simán kirúghatja a Facebook, ha elkövetünk olyan ordas hibákat, mint például az, hogy semmilyen módon nem fedjük el, hogy arról a gépről lépünk be, amelyikkel a saját fiókunkat is használkjuk [cookiek, IP-cím, HTTP-fejlécek, etc].

  6. a fake-profilok azonosítása bizonyos mértékben automatizálható, de ennek megvannak a maga korlátai. Konkrétan arra gondolok, hogy egy Facebookon futtatott alkalmazás kereshet ritka szófordulatokat, amik egyaránt előfordulnak a fake-profil posztjai, kommentjei vagy képaláírásai közt és az azt működtető valódi névvel használó felhasználónál is. És ez még egy egyszerűbb eset. Csak éppen a Facebook túl nagy számú számú lekérdezés után kirúghat. így természetesen a social webre írt appok készítésével is meg kell ismerkedni.

Végül az elején említett videóriport itt, amit vagy túlságosan megvágtak vagy tényleg  egyedül Csaba mond értelmeset. 

Az RTL-es szerkesztőnek üzenem, hogy értem én, nézettséget kell termelni, de ez tényleg nem az a műfaj, amit bárki művelhet csak úgy, a megszólaltatott pszichológusnak pedig azt, hogy attól, hogy valaki más képét használja fel, nem pszichopata, valószínűbb, hogy egy unatkozó hülye, amilyenből egy kísérleti FB-fiókomon keresztül olykor 30-40-et (!!) látok naponta és ahogy írtam, általában nem valami agytrösztök. Azt is illendő lett volna megemlíteni, hogy a pszichopatáknak vannak közös vonásaik ugyan, de két egyforma nincs. Ezért rendkívül nehézkesek az ezzel kapcsolatos kutatások. [lásd még: Kímélet nélkül, Robert D. Hare; Sikeres és bölcs pszichopaták, Kevin Dutton]

8 Tovább