Szolgáltató adatai Help Sales ÁSZF Panaszkezelés DSA

About...

Napi betevő adag elírás, elütés és helyesírási hiba egy helyen! Amúgy meg #információbiztonság #webcserkészet néha #élettudomány

bardóczi ákos @post.r

blogavatar

minőségi kontent-egyveleg

RSS

cimketenger

ITsec (38),Facebook (18),privacy (17),egyéb (12),social media (11),itsec (11),social web (10),biztonság (9),mobil (8),Google (6),OSINT (6),jog (6),szellemi tulajdon (6),tudomány (6),magánszféra (6),szájbarágó (5),email (5),webcserkészet (5),molbiol (5),felzárkóztató (5),Nobel-díj (4),big data (4),Gmail (4),kultúra (4),terrorizmus (4),online marketing (4),kriminalisztika (4),plágium (4),webkettő (4),genetika (3),molekuláris biológia (3),pszichológia (3),azelsosprint (3),Android (3),biztonságpolitika (3),nyelvtechnológia (3),magatartástudomány (3),Apple (3),sajtó (3),2015 (3),orvosi-fiziológiai (3),élettudomány (3),gépi tanulás (3),jelszó (3),üzenetküldés (3),CRISPR (3),Onedrive (3),2-FA (3),popszakma (3),konferencia (3),levelezés (3),kriptográfia (3),reklám (3),biztonságtudatosság (3),hype (3),torrent (3),open source intelligence (3),neuropszichológia (2),Whatsapp (2),deep web (2),FUD (2),kulturális evolúció (2),nyílt forrású információszerzés (2),TOR (2),hitelesítés (2),titkosítás (2),Pécs (2),bűnügy (2),tweak (2),facebook (2),SPF (2),DKIM (2),bűnüldözés (2),DDoS (2),bejutas (2),videó (2),Reblog Sprint (2),természetes nyelvfeldolgozás (2),villámokosság (2),Hacktivity (2),Yoshinori Ohsumi (2),reblog (2),cyberbullying (2),arcfelismerés (2),ransomware (2),fiziológia (2),Netacademia (2),webkamera (2),szabad információáramlás (2),P2P (2),Balabit (2),cas9 (2),beszélgetés rögzítése (2),pszeudo-poszt (2),molekuláris genetika (2),bulvár (2),gépház (2),tartalomszolgáltatás (2),jövő (2),bolyai-díj 2015 (2),könyv (2),Tinder (2),öröklődő betegség (2),HR (2),sudo (2),Yandex (2),bug (2),nyelvtudomány (2),meetup (2),Twitter (2),tanulás (2),biológia (2),netkultúra (2),malware (2),IDC (2),social engineering (2),szociálpszichológia (2),kutatás (2),hírszerzés (2),iOS (2),vírus (2),farmakológia (2),pedofília (2),epic fail (2),génterápia (2)

A világ legjobb és legrosszabb szelfijei - a ConvNet algoritmus szerint


Hasonló volt már korábban is, ezúttal ún. konvolúciós neurális hálót alkalmatzott egy kutató olyan algoritmus fejlesztéséhez, ami egy szelfiről eldönti, hogy mennyire előnyös, így azzal kapcsolatban tud szabályszerűségeket megállapíani. Különböző típusú neurális hálókat a gépi tanulásban már régóta használnak, a gépi tanuláson alapuló módszerek lényege pedig, hogy az algoritmus kap egy, lehetőség szerint minél nagyobb tanuló halmazt vagy halmazokat, aminek elemeit adott tulajdonság szerint válogattuk össze. A gépi tanulás folyamatában a kezdeti, tipikusan folyamatosan bővülő tanulóhalmaz alapján, a gépi tanuló algoritmus, jelen esetben egy neurális háló, folyamatosan szabályszerűségeket észlel és tárol, ami a kapott elemekre általában igazak. Egy idő után már képes lesz megállapítani egy korábban még sosem látott halmaz elemeiről, hogy azokra érvényesül-e valamilyen tulajdonság vagy sem - döbbenetes pontossággal. Egy fotóról eldönteni emberi szemmel, hogy előnyös vagy sem, nem olyan nehéz, viszont egy gép ízlését kialakítani már korántsem olyan egyerű.  

A Stanford egyik kutatójának, Andrej Karpathynak a blogján nemrég megjelent bejegyzés szerint azért nem is lehetetlen. A gépnek először hatékonyan meg kellett tanítani, hogy mi szelfi egyáltalán és mi nem, majd letöltött ötmillió olyan képet, aminek a tagjei közt ott volt a #selfie kifejezés. Ezt követően letöltött szintén jóadag olyan szelfit más forrásból, amikhez viszont már hozzákapcsolta azokat a metaadatokat is, hogy egy szelfit mennyien lájkoltak vagy kommenteltek, mivel ez nyilván összefüggésben van azzal, hogy mennyire tetszett egy-egy kép másoknak, ezek kívül különböző, statisztikai alapú súlyozási módszereket is használt. Miután a neurális háló tanítása megtörtént, kapott egy ötvenezer elemből álló teszt halmazt, azaz amiről el kellett döntenie az algoritmusnak elemenként, hogy egy-egy szelfi előnyös vagy sem. A posztba egyébként bekerültek a legelőnytelenebbnek ítélt szelfit is. Az algoritmuson keresztül levont általános szabályszerűségek azzal kapcsolatban, hogy mitől lesz jó egy szelfi:   

- hölgynek kell lenni  

- az arc a teljes kép egyharmadát tegye ki, lehetőleg középen vagy a kép felső részében  

- mindenképp látszódjon a homlok  

- viszont látszódjon a hosszú haj is  

- az arckép jó, ha valamilyen effekttel túltelített  

- a legjobb szelfikhez valamilyen keret is tartozott az algoritmus szerint  

Mindezek igencsak egybevágnak azzal, amire intuitív módon is azt mondanánk, hogy szép. A kutatás persze kitér az előnytelen szelfi ismérveire is. Nem kapcsolódik a gépi tanuláshoz, viszont fontos megjegyezni, hogy az olyan effekt, ami az arcot telítetté teszi, a felszínét egységesnek mutatja, azaz az azon előforduló szabálytalanságokat elfedi, tudattalanul mindig is elnyerte mások tetszését. A jelenség evolúciós pszichológiai alapját az adja, hogy a szabályos, szimmetrikus, durva eltérésektől mentes arc az evolúció során egyet jelentett azzal, hogy az egyed egészséges, ellenálló a környezeti hatásoknak, ideértve a kórokozókat, azaz olyanra jellemző, aki alapján emberelődeink tudattalanul helyesen dönthettek úgy, hogy az adott asszonnyal vagy férfival érdemes családot alapítani. Ami egy alaposan vizsgált evolúciós hipotézis értelmében szép, preferált, preferált a közösségi szolgáltatásokban is, egy erről mit sem tudó gépi tanuló algoritmus számára szintén az, csak éppenséggel teljesen más úton lehet arra a következtetésre jutni, hogy valami szép.

képek forrása, erre van még bőven: http://runt-of-the-web.com/selfies-gone-wrong

2 Tovább

Öreg iPhone, nem vén iPhone – tuning


Amíg rá van pörögve a fél világ a legújabb iPhone-ra, van aki elvből, van, aki nettó gyakorlati megfontolásból addig nem cseréli le a meglévő iPhoneját amíg az nem válik használhatatlanná.

Márpedig az könnyen lehet, hogy soká lesz, oprendszeri frissítést pedig a nagyon súlyos sebezhetőségeket orvosló hotfixeken kívül nem adnak ki hozzá, ugyanakkor mára határozott lassulás tapasztalható a régebbi, frissített iPhone-okon, ellentétben azzal, hogy korábban az Apple foggal-körömmel ragaszkodott hozzá, hogy egy Apple-eszköz nem lehet érezhetően lassabb egy frissítés után akkor sem, ha egyébként régi. A nagyon régieket pedig egyszerűen nincs lehetőség frissíteni.

Mivel attól Apple az Apple, az újabb almás mobilom annak ellenére, hogy öt éves, ugyanúgy működik és alighanem működni is fog egy ideig, ha valaki hasonló cipőben jár, akkor érdemes néhány trükköt alkalmaznia, hogy a vén mobil is elfogadható sebességgel működjön. Azaz hogy kell kikapcsolni azokat a felesleges szarokat, amik csak eszik a rendszererőforrásokat. Kizárólag a hagyományos módon elérhető beállítási lehetőségekre térek ki, azaz olyanra nem, amit az oprendszer BSD-szívcsakrájába való beletúrással lehetne elérni - ha már úgysem jön hozzá frissítés, majdnem mindegy, nem? A leírt tweakek nem jailbreakelt eszközön, iOS 7.x-en biztosan működnek, az Apple-fanatikus cikkek többségében pedig pont ezek nincsenek leírva.

Ó, a Spotlight Search: milyen szép is, ha a megfelelő kulcsszó töredékének a beírásával is megjelenik az az alkalmazás, levél és egyáltalán bármi, amit hirtelen nem találunk, ugye? Amit viszont nem árt figyelembe venni, hogy az eszköznek mindent, aminek azonnal kereshetőnek kell lennie, a maga módján fejben kell tartania, ami folyamatosan igencsak számításigényes bravúrokat igényel, lévén, hogy nincs olyan eszköz, ami mindig mindent a memóriában tárolna, de ahhoz, hogy pl. egy gyors kereséshez a memóriába varázsolja azt, amit kell, igencsak sok követ meg kell mozgatnia a rendszernek, azaz eléggé sok bitet kell talicskáznia össze-vissza a háttérben.

Megoldás: csak azokra a kis memóriaigényű adatforrásokra engedélyezzük a spotlight search-öt, aminél tényleg szükség van rá, ezen kívül tartsuk szem előtt az ésszerűséget. Ha például a Mail alkalmazásban úgyis van saját kereső, értelmetlen itt is indexeltetni.

Az iOS 7 megjelenésével még több, felhasználói élményt fokozó effekt került a rendszerbe, ami valóban fokozta a felhasználói élményt olyan iPhoneok esetében, amik rogyásig voltak memóriával és erős GPU-val szerelték őket, akik régebbit használnak, azoknak aligha volt élmény az, hogy minden lassabban érhető el, csak azért, mert a képernyőn az effektek kifinomultabbak. Ami kétségkívül jó tulajdonsága, hogy szépen le lehet kapcsolni és az életbe nem kell vele foglalkozni, persze a korábbi verziókból megszokott effektek ettől még maradnak.

Jó ötletnek tűnik ugyan, hogy egy alkalmazás a saját adatait akkor is frissíthesse, amikor egyébként a háttérben fut, mi pedig esetleg közben használunk teljesen más alkalmazást, az egész tipikusan fölöslegesen zabálja az erőforrásokat, ami az újabb iPhone-oknál nem érződik, viszont mindez használja a hálózatot és túráztatja az akkumlátort is.
Az Apple a végfelhasználók számára a mobileszközei esetén végképp nem tette egyértelművé és egyszerűen ellenőrizhetővé, hogy mit jelent pontosan, ha egy alkalmazás a háttérben fut, tétlen, folyamatosan fut valamilyen módon a háttérben vagy egyáltalán nem fut. Az világos, hogy a rendszer igen kifinomultan figyeli, hogy melyik alkalmazást milyen gyakorisággal használjuk, ennek megfelelően a gyakran használt appok fürgébben is ugranak elő. Ezért van, hogy elképzelhetetlen az az Android-környezetből ismert jelenség, hogy kevés memória esetén lelassul az egész és alkalmazásokat kézileg kell bezárni. Iphone esetén míg például a Hangouts akkor is figyel és fogad hívásokat, ha épp bekapcsoltuk a telefont és el sem indítottuk az alkalmazást, ezzel szemben mondjuk a Skypeon csak akkor vagyunk hívhatók, ha az utolsó megnyitás után nem volt konkrétan tétlen, hiába van ott a futó alkalmazások közt. Hasonlóan zavaros, hogy mit jelent az, hogy egy alkalmazás a háttérben ügyködhet-e. Nos, mivel a jólnevelt alkalmazás egyébként is úgy van megírva, hogy amit a felhasználó nem mentett el, amikor érzékeli, hogy épp a felhasználó bezárja, elmenti az adatot, így például az Evernote vagy a Notes egy feljegyzést ment akkor is, ha csak bezárjuk, ehhez nem kell a háttérben futnia. A példánál maradva, ha azt szeretnénk, hogy a következő indításkor már a máshonnan megejtett szerkesztések is azonnal láthatók legyenek, akkor ezt ez a megoldás biztosítja, az esetek többségében viszont semmi szükség rá, így kikapcsolható. Ha a háttérben nincs frissítve, csak akkor frissíti pl. az Evernote a jegyzeteket, amikor legközelebb indítjuk, ennek megfelelően lassabban indul, de közben a rendszer annyival lesz gyorsabb, amikor a konkrét alkalmazás nem fut, de másvalamit használunk. Azaz igaz, egy-egy indítás több időt fog igénybe venni, például a Facebook vagy a LinkedIN nem azonnal mutatja a fal legfrissebb állapotát, hanem az indításnál frissíti azt, erre egyébként is csak akkor van szükség, ha az appot használjuk.

Vegyük észre, hogy az előző a helymeghatározási funkcióval is összefügg. Azaz egy háttérben futó alkalmazás rendszeresen lekérheti a geoinfókat, sokszor fölöslegesen, ami tovább zabálja az erőforrásokat. Több szállodafoglaló app van, ami még abban az esetben is, ha meg se nyitottuk és otthon ülünk, a háttérben rendszeresen megnézi, hogy hol vagyunk, hogy annak megfelelően, közelben lévő szállodát tudjon ajánlani, a leggyorsabban, ha megnyitnánk. Nos, ha mondjuk valami elborult vidékre utazunk, hasznos lehet, hogy helyi információkat figyelembe véve és a leggyorsabban jelenjen meg a kínálat, nyilván ez a ritkább eset.

Az Assistive Touch bekapcsolásával viszont kapunk plusz egy Home gombot, ami amellett, hogy a valódi Home gombot kíméli azon keresztül, hogy azt ritkábban kell nyomkodni, mivel amellett vagy helyett is használható, gyorsan előcibálhatóvá tesz olyan lehetőségeket, amik gyors telefon esetén egyébként is gyorsak, lassúnál viszont határozottan lassabbak, ilyen például a multitasking, ráadásul egyéni gyorsindítók is beállíthatók ún. gesztúrák rögzítésével.

Az, hogy különböző alkalmazásokban személyre szabott reklámokat jelenít meg, inkább privacy szempontból érdekes, viszont annak is megvan a maga számításigénye, hogy gyűjtse a felhasználói szokásainkat és ennek megfelelően jelenítse meg a testre szabott reklámokat, amikor kell. A dolog kísértetiesen hasonlít a Google hirdetés-perszonalizációjához: egy totálisan eldugott helyen, de kikapcsolható.

Ha van valami, ami nem változott az iPhone-ok evolúciójában, az az, hogy az egyik legnagyobb akkumlátorgyilkos a levelezőalkalmazás. Ahogy több helyen is olvasható, ha több olyan postafiók is be van állítva, aminek a tartalmát rendszeresen nézegetnie kell a rendszernek és jeleznie, ha levelet hozott a posta, drámaian gyorsabban merül az akku. Ami viszont fontos, hogy fiókonként külön-külön állítható be, hogy a tartalmukat a rendszer milyen időközönként ellenőrizze, esetleg soha, csak amikor kézileg nyitjuk meg vagy éppenséggel a funkciót támogató szolgáltató push-üzenetként értesítsen-e egy-egy új emailről. Gondolkozzunk kicsit gyakorlatiasan: ha valakinek überelhetetlenül sürgős valami, az úgyis fel fog hívni, nem pedig emailt ír vagy SMS-t. Ha nem olyan témáról van szó, ami eszelősen sürgős lenne, akkor úgyis ráér addig, amíg legközelebb kézbe veszem a mobilom, amelyiken látom, hogy olvasatlan email van a postafiókban, a boríték ikonja melletti számból, aztán elolvasom a levelet. Ez esetben viszont teljesen mindegy, hogy a levelek rendszeresen negyedóránként, félóránként, óránként töltődnek le vagy gyakorlatilag azonnal, mert IMHO normális ember úgysem fog gyorsabban válaszolni, mert gyorsabban értesült egy új emailről. Ha belegondolok, hogy mennyi levél érkezik hozzám naponta, egy fél fejezetet nem tudnék elolvasni egy könyvből vagy éppen teljesen esélytelen lenne koncentrálni normálisan bármire is, ha azonnal megnézném az emailjeimet, amikor azok érkeznek. Nem csak akkugyilkos, de értelmes tevékenységet végző ember számra értelmetlen is a levelek túl gyakori auto-fetchelése, óránkénti beállítás bőven elég. Hasonlóan vagyok a Facebook-üzenetekkel, a Messengert elvből nem telepítettem, aki írt, attól kéretik szépen megvárni, amíg gép előtt leszek vagy felhív. Az alapértelmezett push-t mindenhol érdemes kikapcsolni a levelezőalkalmazás beállításainál.

Apple-eszközt használni iCloud nélkül elvben lehet, gyakorlatilag nagyon nem érdemes. Ehhez viszont kapcsolódik egy rakás értelmetlen trágya is, amit vagy használunk vagy nem, esetleg használat közben megszokunk. Nincs általános recept, nekem jó, ha a képek azonnal megnézhetők a gépen is, mivel azok ugye automatikusan töltődnek a felhőbe, ha használjuk [ezért halálosan ostoba a nagyokos Apple-fanoknak az az érvelése, hogy miért nem nagyobb az újabb iPhone  háttértára - mert arra ott az iCloud, csókolom! Ha ott fenn van akár a fotó, akár a videó, már törölhető a mobilról.]. Ugyanakkor most komolyan, nevezze már meg valaki 5 ismerősét, amelyik az Apple levelezőszolgáltatását használja! Na ugye, alighanem mi sem használjuk, valószínűleg fölösleges is, kilőhető, az meg most nem ide tartozik, hogy egyébként sem túl bölcs rajta levelezni, mert amiről az Apple úgy gondolja, hogy spam, az a levél az életbe nem lesz meg.

A billentyűzárnak látszólag nincs sok köze a teljesítményhez, figyelembe kell venni, hogy nem azonos a képernyőzárral, - azaz amikor a mobil egyszerűen lekapcsolja a képernyőt - és a passcode által védett billentyűzár, ami csak megadott jelszó vagy számkód helyes megadása esetén engedi a mobilt használni. A kettő nem feltétlenül azonos, az előbbi lehet rövid idő, az utóbbi pedig értelemszerűen több perc, azaz például csak akkor kérjen billentyűzárat, ha a tétlenség elérte az 5 percet, addig viszont a mobil szabadon feloldható, nem is eszi az akkut a kijelző, ugyanakkor a szükségesnél gyakrabban sem kell bekalapálni a billentyűzárat.

Nem a teljesítményhez, hanem kőkeményen a usabilityhez tartozó kérdés a térkép angol feliratozása, ami addig nem feltűnő, amíg nem utazunk nagyon messzire. Nos, tételezzük fel, hogy valaki meg elutazik, de nemhogy az ottani nyelvet nem beszéli, hanem még a helyi ábécét sem ismeri. Még én sem merném bevállalni azt, hogy az alkalmazás Moszkvába utazva a térképet kizárólag cirill betűkkel feiratozza, ahogy arab országba utazva sem azt, hogy kizárólag arabul, még akkor sem, ha már bőven a 20. században egyszerűsített arabot használják, amit ismerek valamennyire. Például egy háromszáz évvel ezelőtt élt író, akiről elneveztek valamilyen közterületet, nem fogják a nevét csak azért az új, a 20. századi, egyszerűsített arab nyelven kiírni, hogy a térképalkalmazások használhatóbbak legyenek. Az más kérdés, hogy aki távoli országba utazik, egy ottani térképalkalmazással szinte biztos, hogy jobban jár, Oroszország esetén mondjuk ilyen a Yandex Maps. Az alapértelmezett beállítás viszont az, hogy az iOS beépített térképe a helyi nyelven feliratozza a térképet, angolul ne. Akárhogy is, erősen érdemes bekapcsolni az angol feliratozást. Ha kénytelen lennél tárgyalni mondjuk egy reptéri urándetektor vezérlőszoftverének frissítéséről Dubaiban vagy Moszkvában, alighanem a helyi illetékesekkel szivesebben beszélnél angol nyelven, hiába gagyogsz oroszul vagy arabul.

Külön posztsorozatot érne meg, hogy miért érdemes a DNT-t  lekapcsolni és a böngésző helyben tárolt adatait néha törölni. Akármilyen környezetről is legyen szó, ha az adattárolást kell megoldani, nem csak a nagy mennyiségű adat, hanem a sok, elaprózott adat kezelése is számításigényes, márpedig a böngészők gyorsítótára tipikusan ilyen.

Hosszú lenne fejtegetni, másrészt messze nem a területem, de éppen az előző indoklás miatt azt a gyorsítótárat is érdemes üríteni néha, ami ugyanitt "Website Data" néven jelenik meg.

Egyébként az a kérdésfeltevés, hogy "Milyen telefont érdemes venni?" vagy épp "Melyik a legjobb?" a többség tudatában hitkérdés és nem, attól, mert valaki ki tud rootolni egy androidos mobilt vagy jailbreakelni egy iPhone-t, attól még nem ért hozzá. De tényleg, mennyi olyan ember van, akivel érdemben lehet vitázni arról, hogy mindennapos használathoz, üzleti környezetben való használathoz vagy  melyik a legalkalmasabb és miért?

Az ön- és közveszélyes Android ugyan tipikusan sokak tudatlanságára játszva éppen fordítva szokta mondani, de nem 2-3, hanem 5-7 éves lemaradásban van az iOS-hez képest, nincs általános recept arra, hogy milyen mobilt érdemes választani, ezért példaként írok néhány forgatókönyvet.

Ha megkérdezik tőlem, hogy egy céges flottához milyen céges mobilt ajánlanék, ahol számításba kell venni, hogy az alkalmazott esetleg elhagyja vagy célzottan ellopják tőle az eszközt azért, hogy arról adatokat nyerjenek ki, ugyanakkor a mobil mégsem lehet veszett drága, mert kapásból vennének belőle 300 darabot, mégis az Androidot ajánlanám. Igaz, hogy normálisan megvalósítva az operációs rendszer beépített funkciójaként a háttértár titkosítása csak a 4.3-4.4-től* létezik, ami laza 4 év lemaradás az Applehöz képest, ahol az iPhone 3GS-től kezdődően mindben alapértelmezés szerint titkosított** a teljes adattartalom, ráadásul nem opcionálisan, hanem kapcsolhatatlanul. A választás azért esne mégis az Androidra, mert relatív olcsó és számtalan olcsó távmenedzsment szoftver vásárolható hozzá, amit a saját megoldásaival kombinálva egy cég még jobban testre szabhatna később.  

Ha megkérdezne egy rokonom, hogy milyen mobilt vegyen, azt mondanám, hogy iPhone-t, mivel stabil, gyors, sosem hal le, para pedig akkor sincs, ha ellopják tőle, mivel a rajta lévő adattartalomhoz hozzáférni szinte lehetetlen a billentyűzár ismerete nélkül.

Ha olyan cég kérdezne, amelyiknél a céges csapatmunka minden részét valamilyen Microsoftos megoldással végzik jóideje és azzal is folytatnák, akkor nem túl drága Windows Phone-os mobilokat javasolnék. Igaz ugyan, hogy idővel elérhetőek lettek vagy lesznek más platformokon is azok az eszközök, amik tipikusan a MS üzleti megoldásai, mint mondjuk a céges chatnek nevezhető Lync, a csapatmunka svájcibicskájaként működő SharePoint vagy a levelezőrendszerek luxusverdája, az Exchange, ezek nem meglepő módon Microsoft-termékként Windows Phone-on működnek a legjobban. Hasonlóan ahhoz, hogy iPhone-on is lehet a Safarin kívül más böngészőt használni, csak éppen lassabb lesz. így például a MS Exchange postafiók beállítható Androidon is, lassú lesz, mint a vesztés.

Azaz elvben minden komoly szolgáltatás vagy alkalmazás létezik általában több platformra is, csak a teljesítményben vannak elképesztő eltérések, ezen kívül hosszú távon gondolkozva a költséghatékonyság és időtállóság eléggé erős szempont.

Ha már mobilok adatitkosítása, két lábjegyzettel zárnék.

*az Android esetén az első, de nem túl komolyan vehető titkosítás, mint natív operációs rendszeri funkció, a 3.0-tól létezik, ami pedig a komolyabb kriptomegoldást jelenti, a 4.3-ban jelent meg, de anno nem tartott sokáig az öröm, mert a legújabb verzión is lazán fel lehetett pattintani a titkosítást, a módszert amúgy elsőként magyar kutatók hozták nyilvánosságra 
**az iOS rendszerek esetén a ma elterjedten használt verziók terén nem tudok róla, hogy találtak volna kihasználható hibát a  titkosított adatok kinyerésére. Ez a gyakorlatban nem jelenti azt, hogy hozzáférhetetlenebb: idevágó kérdés, hogy minden főverziónál találnak valami arcpirító baromságot, amin keresztül a billentyűzár ismerete nélkül, valamelyik kényelmi funkción át is feloldható a mobil, ezeket a hibákat rendszerint azonnal javította az Apple.

Egy idén nyáron megjelent sokkoló kutatás ugyan az andoridos mobilok esetén igazolta,  gyakorlatilag belátható, hogy platformfüggetlen tulajdonság, hogy ha a felhasználók számsorként túl egyszerű billentyűzárat vagy feloldási mintát állítanak be, mindegy, hogy a mobil oprendszerének gyártója milyen módon valósította meg az adatok titkosítását, pusztán számokból álló billentyűzár esetén 8 számjegyűnél rövidebb kód egyszerűen nem biztonságos, Androidban minta alapján történő feloldásnál csak ésszerűtlenül hosszú lenne az. Az ujjlenyomatolvasós megoldások biztos nagyon fancy-k a felhasználóknak, nekem pedig megmosolyogtatóak, hiszen alapvetően eléggé baromság olyan azonosítót használni bármiféle autentikációhoz, amit az ember ezer helyen otthagy, lenyúlni viszonylag egyszerű, a 3D nyomtatás korában pedig bárki varázsolhat lopott minta alapján ujjlenyomat-másolatot. Arról nem is beszélve, hogy több olyan módszer található a neten, ami azt írja le, hogy tényleg barkács módszerrel téveszthető meg egyik-másik ujjlenyomatolvasó. Hogy az ésszerű áron beszerezhető biometrikus azonosításon alapuló módszerek használata miért hülyeség, hosszú mese lenne, de elég csak belegondolni, hogy retinán alapuló azonosításnál, a retina ugyan eléggé lekoppinthatatlan ugyan, de az olyan retinaszkenner, amit nem lehet megtéveszteni, már eszelősen drága, márpedig a közelgő legnagyobb őrület, ha igaz, a mobilokba épített retinaszkenner/írisz-szkenner. Ezekkel nem csak az a baj, hogy szimplán jópofa ostobaságok, mondjuk az adatokat a zsebtolvajtól megvédi, de célzott adatlopástól annyira védenek, mint Árpi bácsi bunkere az atomtámadás ellen. A nagy probléma az, hogy hamis biztonságérzetet keltenek a felhasználóban. Ugyanis a felhasználók annyira nem vágják, hogy valami hogyan működik, hogy nagyon sokaknak egy elfogadható, szemléletes képe sincs olyanról, amit jó tudni a mobil kapcsán. Blackberry felhasználóként beszéltem olyan Blackberry-tulajjal, aki meg volt róla győződve, hogy ha mi telefonálunk egymással, akkor az titkosított, de inkább nem futottam neki magyarázni, hogy ha a hívást nem a Blackberry Messengerében indítjuk, ami áttolja a hívást egy BIS/BES szerveren, ugyanolyan mezei telefonhívás, mint bármely másik.

0 Tovább

Internet alkotta korlátok és az információs robbanás


Baj-e, ha sok az információ? Nemrég egy konferencián egy előadó azzal vezette fel az előadását, hogy ez az információs túlterhelés szerinte mekkora baromság, mert amikor ő egyetemre járt, akkor is sokkal több információ volt elérhető, mint amennyit meg lehetett volna emészteni, a könyvtárból pedig úgyis csak azt a két könyvet vette ki, amelyikre szüksége volt.

És alighanem senkinek a fejében sem fordult meg, hogy ez mekkora logikai mellényúlás. Az pedig pláne nem, hogy a pofa tényleg nincs tisztában a jelenség lényegével. Az információs robbanás okozta zajról már nagyon sokan cikkeztek, több évtizede foglalkoznak vele, hogy ennek azért lehetnek kiszámíthatatlan hatásai, mivel az evolúció erre nem készítette fel az ember agyát. A kapcsolódó technológiai szingularitásról nem is beszélve.

Szóval a naiv megközelítés szerint, ha sokkal több az információ, akkor is ki tudom válogatni azt, amelyik számomra releváns, érdekes, szükséges, azt használom, a többit pedig hanyagolom. Hol itt a baj? Ott, hogy minél nagyobb mennyiségű irreleváns információt kell kerülgetni, az annál több értékes energiát emészt fel fölöslegesen, az ember „információs áteresztőképessége” az érzékszervektől kezdve a kéreg alatti magvakon át az agykéregig minden részében, azaz a többlet információ feldolgozása korlátozott, leválogatása időt igényel.

Azzal, hogy több információ vált elérhetővé, mint bármikor a civilizáció történetében korábban, több tudományterületen is alaposan feladja a leckét.

Egyrészt a keresőmotoroknak hatékonyan kell túrniuk az egyre felmérhetetlenebb mennyiségű információban, ami egyre nagyobb IT infrastruktúrát igényel, fejlődés ide vagy oda. Annyira megszoktuk, hogy netes keresőket használni ingyenes, hogy el sem tudunk képzelni egy olyan kort, amikor már nem az a kérdés, hogy kell-e érte fizetni, hanem az, hogy mennyit, ha a keresés olyan számításigényessé válik, hogy az alatta lévő számítógépes infrastruktúra nem tartható fenn a klasszikus üzleti modellekkel. Ha valakinek túl bizarrnak tűnne a gondolat, megjegyzem, hogy már most is több adattárház van, aminek a használata, az abban való keresés előfizetéshez kötött. Másrészt korábban az is valószerűtlennek tűnt, hogy a Youtube-on átugorhatatlan hirdetések jelenjenek meg majd valamikor. Márpedig megjelentek és vannak országok, ahol a videó előtti hirdetés nem néhány másodperc, hanem egy tévéreklám hosszúságú és át sem lehet ugrani.

A netes keresés és relevancia kapcsolata több, nagyon ütős teoretikai kérdést vet fel annak fényében, hogy bizonyítottan a döntéseinket befolyásolja az, amit látunk, ha keresünk valami után. Ennek az egyik legproblematikusabb esete például az, ha valaki valamilyen gyógyszerre, hatóanyagra vagy egyáltalán bármi olyanra keres, amivel kapcsolatban inkább az orvosával kellene megkonzultálnia. A top találatok felületesek és pocsék minőségű tartalomra mutatnak, rosszabb esetben veszélyes baromságok. A jelenség oka nyilván az, hogy több kattintás érkezik arra az oldalra, ami érthető, az pedig nyilván nem feltétlenül a legszakszerűbb információforrás.

Ami még az információs robbanást illeti, szokás mondani, hogy milyen jó dolog is az, hogy ma már a bolygó lakosságának egyre nagyobb része fér hozzá az internethez. Igencsak retrográdnak fog tűnni, amit írok, de ez még globálisan nézve sem feltétlenül igaz. Ugyanis a nagyon sok felhasználó által feltolt nethulladék, mint felhasználói tartalom, a felhő-alapú világban végülis ugyanazokat az adatközponti infrastruktúrákat terheli, amin mondjuk a kutatók a legfontosabb tudományos híreket megosztják egymással, ami, ahogy írtam, egyre költségesebb a tárolás és a kereshetőség számításigénye miatt egyaránt. Ennek eredője pedig az lehet, hogy számos szolgáltatás, amiért most még el sem tudjuk képzelni, hogy fizetni kelljen a neten, hoppácska, egyszer csak fizetős lesz. Oké, nem azok miatt, akik a macskájuk elléséről képesek feltolni 200 képet, de miattuk is. A levét viszont pont nem ők fogják meginni, ugyanis a webes óriások nagyon jól tudják, hogy kikkel lehet fizettetni és kikkel nem, mely államokban alkalmazható valamilyen módon fizet(tet)ős modell és mely államokban kell a szolgáltatást továbbra is teljesen ingyenesen biztosítani, mivel az ottani végfelhasználók egyszerűen nem tudnák megfizetni, a netszolgáltatókon pedig nem feltétlenül lehet leverni például az átvitt adatmennyiség árába építve.

De jó is, hogy mindenki elérni ma a netet. . . Előbb kifejtettem, hogy ez szerintem még globálisan sem igaz. Ha pedig személy szerint nézem, nekem aztán pláne nem. Nemrég egy konferencián Uj Péternek volt pár gondolata, amit most átdolgozok. UP beszélt arról, hogy ami a netet illeti, túlestünk a ló másik oldalára, az internetben az volt sokáig a szép, hogy a teljes egyenlőség miatt mindenki kifejthette és ami a lényeg, el is juttathatta széles körhöz a véleményét, nem csak eljuttathatta, de el is jutott. Mára viszont a fagyi visszanyalt. Mindenkinek van véleménye, annak a tömegesen manipulálható-idomítható tömegnek is, amelyik jobban tenné, ha kussolna, a zajban egyre nehezebb meghallani az értelmes véleményt. Ha belegondolok, személy szerint nekem mondjuk tizenöt évvel ezelőtt, amikor még általános iskolás voltam, a netem lassú volt és drága, de bizonyos értelemben ezerszer jobb közeg volt. Persze, nyilván akkor is volt minden baromság, voltak hülyék, uszítható tömegek, trollok, bűnözők, de ami nagyon fontos, hogy nem ennyi!!!

Már emlegettem a Christakis Kapcsolatok hálójában, ezen kívül Cialdini Hatás című könyvét, ahogy Csermely Péter A rejtett hálózatok ereje könyvét szintén. Ha valaki a három közül az egyiket végignyálazta, akkor tisztában van vele, hogy ha tetszik, ha nem, nem vonhatod ki magad teljes egészében az alól a hatás alól, amit az vált ki, hogy Csaksimándzsesszikavagyok Osztő posztolgat a Facebookra emberfeletti helyesírási hiba/sor sebességgel.

Amikor valamilyen társadalmi vita kiéleződik, többször felmerül, hogy hogyan kerüljük el az idegesítő ismerősök tartalmait, megosztásait, nyilván a legésszerűbbnek tűnő lépés az, ha töröljük az ismerőseink közül a tagot és le van a gond vagy éppenséggel elrejtjük az összes általa posztolt tartalmat, ha ez a szolgáltatásban lehetséges. A Facebookon például igen.

A Facebook kutatói nem keveset tettek azért, hogy egyre inkább olyan tartalmak kerüljenek a felhasználók elé, ami a legnagyobb valószínűséggel érdekli is őket, ami többé-kevésbé működik is, az más kérdés, hogy vélhetően vissza is élnek azzal, hogy néha pedig pont ettől a szabálytól térnek el meglehetősen változatos módon. Anarki friss felzárkóztató cikke a témában erre. Én az összes közösségi szolgáltatásban kizárólag azokat veszem fel kontaktnak, akiknek a tartalmai érdekelnek, a Fészen pedig évek óta be sem lehet jelölni ismerősnek. Ezt bárki megteheti, aki nem akar jelentős mennyiségű időt elpazarolni azzal, ami a naponta sokszor néhány tizedmásodpercből adódik össze, amikor görgeted a hírfolyamot és pillanatok alatt kell döntened, hogy érdekel, azaz továbbolvasod vagy sem. De ha nem olvasod, az is idő, mivel időt fordítottál arra, hogy eldöntötted, hogy nem fogod olvasni. Nos, ha valaki túltolja azt, hogy megválogatja, kit vesz fel ismerősnek, ennek a finnyásságnak alighanem szintén megvannak a maga veszélyei. Például az, hogy ha eleve kézzel válogatom össze, hogy engem mi érdekel, bezárhatom magam egy olyan tematikus vagy fogalmi keretbe, ami miatt kisebb valószínűséggel zuhannak elém olyan információk, amik nem tartoznak ugyan szigorúan ahhoz, ami az engem érdeklő információk köre, de a szemléletmódon formálásához jól jönnének, mégsem érnek el, mivel kiszorítottam őket így nem fogok róluk értesülni.

A közösségi webes szolgáltatások tipikus életciklusa és a rajtuk található posztok nívója közti párhuzam egyenesen bájos. Akár iWiW, akár Facebook, akár LinkedIN, a felfutásakor mindig elit, cool, értékes, később valamivel slamposabb, a populáris baromságokat terítő felhasználók beszűrődésével az egész szolgáltatás úgymond olyanabb lesz, majd eljön az a szakasz, amit több közösségi szolgáltatás annyira nem tudott kezdeni, hogy konkrétan belehalt, azaz amikor annyi nethulladékot kell kerülgetniük a felhasználóknak, hogy inkább hagyták az egészet a fenébe. A LinkedIN Pulse eredetileg nem volt egy rossz ötlet, ez az a felület, ahol hosszabb posztokat tehet közzé bárki, egy szakmai témában. A probléma éppen azzal van, hogy bárki. És a dolog láthatóan kezd elkurvulni.

Persze, számos rendszerben éles eszű algoritmusokon túl a felhasználói értékelések is befolyásolják, hogy egy információ mennyire előkelő helyen jelenjen meg, több szolgáltatásban ha túl sok negatív feedbacket kap egy poszt vagy komment, eltűnik, míg ismerek olyan szolgáltatást is, ahol ha egy felhasználó posztjai összességében túl sok negatív visszajelzést kapnak, a rendszer szépen kizárja a felhasználót. Nem a felhasználási feltételek konkrét megsértése miatt, hanem emiatt, ez a szolgáltatás működésének egy szerves része. Viszont nyilván, nem sok szolgáltatás merné ezt a policyt bevezetni.

Szóval ami az információ forradalmát illeti, lesznek gondok bőven, több síkon is.

Komoly verseny folyik azok közt a szolgáltatások közt, amik arra szakosodtak, hogy minél inkább testreszabottan, minél kevesebb idő alatt, minél több releváns információt tálaljanak a felhasználóknak, közülük több, igencsak jó hatásfokkal, nyelvtechnológiai és mesterséges intelligenciában alkalmazott módszerek alapján a felhasználók olvasási szokásaihoz igazítva az ajánlgatott cikkeket. Azaz sokkal többről van szó, mint egyszerű híraggregátorokról vagy curated contentről.

A kategória egyik zászlóshajója a Flipboard ami – hogy-hogynem – nekem most pont olyan cikkeket ajánlgat, amik az információs robbanással és a felhasználó érdeklődésének megfelelő híreket válogató szolgáltatásokkal foglalkozó híreket dobál fel ezekben a percekben. A regisztráció után főkategóriák kiválasztása után alkategóriák nyílnak meg, amiken belül további alkategóriák tárulnak fel és így tovább. Az érdeklődési körök kijelölésénél tehát eleve a kategórián kívül az al-al-al-kategóriákat is figyelembe veszi majd a rendszer, amikor előállítja a személyes falunkat.

A Prismatic hasonlóan zavarba ejtően okos jószág. Ugyanis a kategóriák kiválasztása után folyamatosan figyeli, hogy milyen hírekre kattintottunk, mennyit időztünk ott ténylegesen, ennek megfelelően tanulja az olvasási szokásainkat és néhány óra használat után már-már félelmetes, de csak olyan cikkek fognak előtűnni, amik valóban érdekelnek.

A Nuzzel és több, kizárólag mobilon elérhető személyes newsfeed alkalmazás egyre jobban és jobban találja el a felhasználó ízlését, még ha tökéletesek nem is lesznek soha – vagy – ahogy előbb emlegettem, esetleg nem zárjuk tudattalanul magunkat egy olyan fogalmi keretbe, ahonnan már kevésbé látunk ki, pont azért, mert direkt vagy indirekt meghatározzuk, hogy mi érdekel ezzel viszont azt is, hogy mi nem.

Ami még egy rendkívül komoly kérdést vet fel, hogy ezek a szolgáltatások nyelvcentrikusságukon keresztül hosszú távon milyen hatást fejtenek ki, mivel a tartalmak terén jóformán csak angol nyelvű tartalmak rúgnak labdába. Jól tudjuk, hogy a nyelv és a kultúra szorosan összefügg. És ahogyan a Yandex Key-el foglalkozó cikkben írtam mellékszálként sokszor nagyon keményen izolál is kultúrákat. Valamilyen hülye animével büntettük magunkat egy ismerősömmel, aztán felvetette, hogy azért érdekes, hogy a japók mennyi mindent máshogy értelmezhetnek és belegondolva, ha jelentősen kevesebb inger ér minket a távolkeletről, abból a mentalitásból vagy konkrét tudásból semmit sem tudunk átvenni, sokkal kevésbé lesz közösségi az a tudás egy nemzetközi csapatmunkában, ami sokkal inkább közösségi és magasabb szintű lehetne tudva, hogy ezt a net technológiailag elvben lehetővé teszi. De például van tősgyőkeres moszkvai, Moszkvában élő ismerősöm, akinél rákérdeztem, hogy hogyhogy csak olyan veszett régi képei vannak fenn a VK.com –on, kevésbé ismert nevén VKontakte-n. Mire mondta, hogy nem használja már ezer éve, amikor ott a… na vajon melyik?

Rendszeresen repkednek a közhelyek a globalizált világról, na meg arról, hogy az internet eltüntette a földrajzi távolságokat [ebben a formában mindkettő ortó nagy ostobaság], holott bizonyos, itt nem tárgyalt jelenségek miatt egyes szakadékokat az internet még mélyebbé tett, attól pedig nagyon messze van, hogy valóban maximálisan együtt tudjon működni az európai, a japán és a Dél-amerikai kutató – vagy bárki! – olyan módon, hogy egy adott feladat megoldásakor a megoldás közben egy-egy mentalitást adaptálnak abba a környezetbe, amiben a részfeladatok megoldása történik. A jelenség persze nem csak a kutatást érinti, hanem abszolút mindenkit, azért a kutatást hoztam példaként, mert talán ott a legkönnyebben értelmezhető a jelenség.

Egy könyvtárat meg lehetne tölteni annak az irodalmával, hogy az internet hogyan tette lehetővé azt, hogy emberek gondolkodjanak együtt, korábbi falak omoljanak le, azzal pedig szinte semmi nem foglalkozik, hogy mik azok a korlátok, amiket viszont épphogy megerősített.

Képek: fabiusmaximus.com, wikipedia.org, makemark.co.uk

0 Tovább

Hogy nem tört világhatalomra a linux?


Nem tudom már, hogy ki mondta, hogy a Windows azt a rendszer, amit senki sem dícsér, de mindenki használja, a linux pedig az, amit mindenki dícsér, de senki sem használja. Ez ma már kevésbé igaz, mint 10 évvel ezelőtt, de alapvetően sokatmondó.

Mielőtt belecsapnék, megjegyezném, hogy az első linux disztróval még bőven általános iskolás koromban találkoztam, a Suse 6-os telepítéséhez pedig tényleg vért kellett izzadni, összehasonlíthatatlan a mostani telepítőkkel. Egy darabig használtam, aztán jött jópár év kihagyás, majd ismét elkezdtem használni OpenSuse-t, Slackware-t, ezekben el is merültem amennyire kell, az összes laptopomon van linux telepítve és szinte mindig van nálam egy zsebből indítható Kali Linux is. Aki képben van, az már elkezdett morogni, aki nincs, annak írom, hogy nincs olyan, hogy "A linux", ugyanis a disztribúciók közt akkora különbségek vannak, hogy sokszor értelmetlen erről általánosságban beszélni, esetleg csak *nix, azaz linux-szerű operációs rendszerről. Másrészt most csak az asztali gépekre telepített linuxokra szorítkozom és egyáltalán nem foglalkozom azzal, hogy akár pici szerveren, akár mainframe-en, akár egy grid-es szuperszámítógépen milyen lehetőségeket ad egy-egy jól megválasztott disztribúció.

Először is, aki úgy gondolná, hogy az open source illetve a free software jó, a nem-open source rossz, az gondolja újra egy kicsit a dolgot: mindkettőnek megvannak az előnyei és hátrányai, amik közül a mi szempontunkból most az a legrelevánsabb, hogy az első linux verziók megjelenése óta követhetetlenül sok disztribúció jelent meg, de még egy disztribúción belül is egy-egy főverzió közti különbségek akkorák voltak, hogy gyakorlatilag újra meg kellett szokni az új felület használatát, esetleg agyműtétet végezni a rendszeren, hogy a korábbi grafikus felület jelenjen meg. Ez volt régen.

Hiába, hogy a grafikus felületek közt gyakorlatilag "csak" három fő változat, a KDE, a Gnome és az Unityvel turbósított Gnome működik szinte minden asztali gépen, a felhasználók egész egyszerűen utálják, ha leülnek egy idegen gép elé és bele kell tanulniuk, meg kell szokniuk, hogy már megint minden máshol van. Egy Apple-gépen, az OSX-nél eléggé adja magát a dolog, míg egy Windows-verziónál is megszoktuk, hogy mit hol találunk, sőt, mintha az Microsoft kínosan ügyelt volna arra, hogy még hatalmas verzióváltások közt se legyen túl kontrasztív a különbség a grafikus felületben, mivel az elriaszthatja a felhasználókat, holott egy Windows 9x és egy NT-s termékvonalba tartozó Windows közt a különség körülbelül akkora a motorháztető alatti elemeket elnézve, mint mondjuk egy medúza és egy elefánt közt.

Míg az MS mindent megtett, hogy az újonnan megjelenő változatokban visszavarázsolható legyen egy Windows 95-ből (!!) ismerős felület, a különböző, egymással többé-kevésbé kapcsolatban álló linux GUI-k fejlesztői közt még ha volt is összhang, nem geek, hanem átlag felhasználói léptékben annyira gyorsan divergáltak a különböző grafikus felületek, hogy gyakorlatilag nem volt két linuxos gép, amin ugyanott lettek volna a lényegi elemek. Igaz, én elvből sosem foglalkoztam behatóan az Ubuntu nevű szörnyszülöttel, ott még felcsillant a remény, hogy ha az Ubuntu meghódítja a világot, talán majd változik a helyzet egy egységes grafikus felülettel. Nem így történt. Mire pedig már egészen egységesek lettek a felületek, a felhasználói kultúra kollektív tudatába beleégett, hogy a linux az a rendszer, ahol minden máshol van, aztán jól elveszi a figyelmet pont arról, ami miatt az ember gép elé ül, azaz az effektív munkáról, akár a könyvtárban, akár az iskolában, akárhol.

Persze, persze, viszonylag gyorsan megszokható mindhárom vezető linuxos felület, de a lényegen nem változtat: a felhasználó a gépet egész egyszerűen _használni_ akarja és nem fordít fölösleges energiát erre, ha nem feltétlenül szükséges.

Miután alaposan kiveséztem az első indokot, amit persze lehetne részletezni pro és kontra a végtelenségig, a linux másik legfájóbb része a telepítés. Jópár évvel ezelőtt már-már gurunak kellett lenni ahhoz, hogy valaki lelket leheljen a grafikus felületbe, amit ugye a Windows és a Mac alapjáraton tudott, sőt, a linuxnál elég volt néhány rossz beállítás hozzá, hogy végleg elfüstöljön egy CRT monitor. Szóval anno ha valaki linuxot akart, akkor vagy megkért valakit a telepítésre, aki értett hozzá, vagy nekiállt saját maga és - akkor még méregdrágán - napokon keresztül keresgélt a neten, hogy hogyan is orvosolható egy-egy probléma, ami miatt valami nagyon nem úgy működik, ahogy működnie kellene.

Mára ez is változott, a legtöbb desktop disztró egy next-next-finish-tematika alapján végigvitt telepítés után indul grafikus felülettel, helyesen felismert, ilyen módon működő hardverekkel, vattacukorral, törökmézzel. Igaz, hogy ezt a Windows mondjuk tudta 10 évvel előtte, a Mac meg 20 évvel előtte, de ne legyünk gonoszak, szóval működik, na. Elterjedt változatoknál egyre ritkábban ugyan, de vannak esetek, amikor meg nem. Például a régi laptopomon a Suse egy főverzió váltásakor néhány évvel ezelőtt egész egyszerűen nem volt hajlandó a videókártyával együttműködni az ún. Xorg, ami egyáltalán lehetővé teszi, hogy valamilyen grafikus felületet beélesítsünk a gépen, aki képben van, annak mondanom sem kell, hogy Xorg-ot profin idomítani külön tudomány. Na már most az világos volt, hogy a jelenség az Nvidia videókártyák bizonyos lapkakészlettel dolgozó változatát érintette tömegesen, ez valahogy nem hatott meg és itt is találkoztam azzal a jelenséggel, amivel 10 évvel korábban is, és teljesen általános, ha valamilyen hardver nem akar működni linuxon: valamennyi eleve meglévő tudás mellett ki lehet ugyan keresgélni a probléma megoldását, de ez még egy elszántabb geek számára is több órát, rosszabb esetben több napot vehet igénybe. Ugyanis egyszerűsítve a linuxnál nincs olyan, hogy "felhasználói szintű ismeret". Lehet hozzá érteni jobban, meg kevésbé, esetleg csak egy grafikus felületet ismerni, de ha valaki rendszeresen használja, egész egyszerűen készüljön fel rá, hogy rendszeresen kicsit képeznie kell magát, az arra fordított időt pedig alighanem tudná értelmesebb dologra is fordítani, ha nem kimondottan informatikával foglalkozik.

Oké, itt most nem az advanced userre, na meg a neandervölgyi kinézetű rendszergazdákra gondolok, ugyanis bizonyos tudásszint elérése után drámaian csökken egy-egy desktopos probléma megoldásához szükséges idő.

Én még a minap sem lepődtem meg azon, hogy a legújabb OpenSuse-nak úgy kell tantraimát mondani, hogy ugyan legyen már kedves elindítani a wifi-kártyát, mintha az nem lenne teljesen elemi egy gép használatánál. A beállításokkal való "gépészkedés" persze annyiban változott, hogy ma már egyre kevesebbszer kell kézzel belenyúlni egyenesen egy konfigurációs fájlba vagy előcibálni az átlagos felhasználó számára rettegett parancssort. Márpedig a ők vannak többen.

A harmadik és talán legfontosabb dolog, ami miatt a linux nem hódította meg az asztali gépek világát, az a dokumentációját jellemző káosz vagy éppen sokszor nem human-readable megfogalmazás. Az, hogy az előbb emlegetett parancssorban nem csak azt lehet megnézni, hogy egy parancs mit csinál és hogyan kell használni, de még azt is, hogy bizonyos feladatra melyik lehet a legalkalmasabb parancs, a grafikus felületen pedig van egy óriási súgó, ez az átlag felhasználót nem nyugtatja meg. Persze, persze, vannak a linuxban úgymond nyelvi univerzálék, na meg POSIX-os rendszerek logikáját alaposan megtanulva és átlátva könnyebb dolga van az embernek, gondoljunk csak bele: valaki ír egy adott disztróról egy könyvet akár kezdőknek, akár profiknak, gyakorlatilag mire kijön a nyomdából, már a fele nem úgy működik, ahogy az meg vagyon' írva. Azt pedig hagyjuk, hogy magyar szerzőktől egész egyszerűen sokkal több egész egyszerűen szar könyv jelent meg a témában, mint amennyi jó.

Ehhez képest egy-egy Apple-fanatikus néha ír egy-egy könyvet az OSX használatáról, gondolom teljesen hülyéknek, ami pedig a Windowst illeti, minden nagyobb verzió megjelenését követően megjelenik először a Microsoft hivatalos teljes dokumentációja, utána egy-egy haladókönyv, ami nem foglalkozik azzal, hogy hol találja az olvasó a Start menüt, minden mással meg igen, amire magától amúgy az olvasó az életbe nem jött volna rá és tényleg átlag userként meg tud oldani egy-egy átlagosan problémás helyzetet, végül meg persze néhány könyv a nagyszülőkre optimalizált didaktikai felépítéssel. De a lényeg, hogy van egy normális dokumentáció, amit le lehet emelni a polcról, aztán tényleg benne is van, hogy mi lehet buktató, ha valakit érdekel, bepillantást nyerhet a motorháztető alá is. Na, ez a linux disztróknál egész egyszerűen nem így van, a dokumentáció tipikusan pokolian terjengős és mintha nem embereknek írták volna. Persze ez nem jelenti azt, hogy ne lennének jó könyvek linuxokhoz, viszont azok még ha bőségesek is, még mindig nem elegendőek ahhoz, hogy magabiztosan telepítse és használja a felhasználó a rendszert, anélkül, hogy esetleg szopórollerezni kellene egy-egy full alapvetőnek tűnő probléma megoldásán.

A negyedik dolog, ami miatt nem lett a linux világsiker az end-usernél, hogy a Microsoft a tragikomikus Windows Millenium után felkötötte a gatyát, gyakorlatilag nem fejlesztette tovább a 9x-termékvonalat, majd a Windows 2000 után letett az asztalra egy olyan NT-s operációs rendszert, ami ötvözte a korábbi windowsos rendszerekből megszokott grafikus felületet és logikát valamint az NT-s windows-ok stabilitását, ez volt pediglen a Windows XP. Korábban az NT-s vonalba tartozó rendszerek kb. semmivel sem voltak kompatibilisak, amik nem valamilyen céges hálózati szolgáltatáshoz kellettek, nem csoda, hogy kutya se telepítette otthonra. Emlékszik még valaki a Windows NT 4.0-re? Na ugye. Ehhez képest a Win XP máig az egyik legelterjedtebb oprendszer.

Végezetül a nagyon sokból néhány könyvet ajánlanék nehézségi sorrendben a nagyon sok jóból annak, aki linuxozna vagy linuxozik, de jobban meg szeretné érteni, ezek a könyvek pedig viszonylag függetlenek attól, hogy melyik disztribúcióról van szó.

Pere László - GNU/linux rendszerek üzemeltetése I-II. - nyugi, valójában kezdőkönyv, de nem totálisan szájbarágós
Marcel Gagné - Linux rendszerfelügyelet - szintén az alapoktól indít, de az előzőnél sokkal alaposabban tárgyalja a rendszergazdai feladatok ellátásához szükséges feketemágiát
O'Reilly-Kossuth-Kiskapu piros könyvek - szinte mind jó
ISECOM - Hacking Exposed: Linux, Security Secrets and Solutions - klasszikus darab a patinás Hacking Exposed sorozatból, ha a netről boltolod be, nagyon érdemes megnézni, hogy hanyadik kiadás 

0 Tovább
12
»