Amióta a Eugene nevű csetbot átment a Turing-teszten – ami elméletben egy gép valódi intelligenciáját hivatott kimutatni -, mindenki egy kicsit jobban odafigyel a mesterséges intelligenciáról szóló hírekre. Boldogan mosolygunk, ha beillesztjük a mesterséges intelligenciát a sarki boltos vagy az előttünk padlófékező sofőr helyére, és mindenhová, ahol hasznát lehetne venni egy hidegfejű gépnek.
Ha a szerverteremről van szó, a mesterséges intelligencia kapcsán rögtön kedves, előzékeny és mindig nagy kedvvel munkára fogható rendszermérnököket képzelünk el, pedig a helyzet egészen másképp fest.
(Azon túl, hogy nálunk minden rendszermérnök kedves, előzékeny és mindig nagy kedvvel munkára fogható, természetesen.)
A Google került nemrég a hírekbe azzal, hogy az adatközpontjai teljesítményének optimalizálását rábízza tanítható és önmagát fejlesztő gépekre. Joe Kava, a területért felelős vezető beszélt arról, hogy a cég neurális hálózatok segítségével elemzi az iszonyú mennyiségű adatot, amit össze lehet gyűjteni egy ilyen komplex szerverközpont mindennapjai során. Így túl tudnak jutni azon a szinten, amit a mérnökök képesek nyújtani, ahogy egy ember képes optimalizálni, reagálni: már csak az információmennyiség miatt is.
Ahogy egyre bonyolultabbak lettek a felhő alapú szolgáltatásokra épült, vagy akár egyszerűbb szerverhoszting adatközpontok, úgy vált egyre elkerülhetetlenebbé egy ilyen lépés.
Persze ahogy általában lenni szokott, mindig találni egy hírértékben gyengébb, méreteiben szerényebb próbálkozást egy lassan divattá érő trend kapcsán, egy kisebb cég már nyilván évek óta próbálkozik piacra kerülni hasonló módszerekkel.
Ezúttal a Romonet nevű, egyesült királyságbeli, adatközpont-menedzsmenttel foglalkozó vállalat bukkant fel, ami már 2010-ben is ilyen szoftverekkel foglalkozott. A vállalat rendszere a tanulás segítségével építi fel a prediktív modelleket, amivel aztán optimálisan tudja ellátni a vezérlő feladatokat. Ráadásul, míg a Google egyelőre csak a PUE (Power Usage Effectiveness, vagyis az energiafelhasználás hatékonysága) szempontjából vizsgálja a kérdést, addig ez a korai megoldás a teljes TCO (total cost of ownership) modelljét elemzi, alakítja.
A Google neurális hálózatát Jim Gao, nicknevén Boy Genius álmodta meg, egy “20 percent project” részeként. Vagyis szinte a szabadidejében: a Mountain View-i vállalat a munkaidő ötödében lehetőséget ad arra, hogy mindenki hobbiprojektekkel dolgozzon, olyan innovatív ötletekkel, ami túlmutat a hagyományos munkakörükön. Boy Genius, úgy tűnik, elég jól oldotta meg a feladatot, a kidolgozásához még órákat is felvett a Stanford Egyetemen.
A végeredmény nem más, mint egy rakás differenciálegyenlet, amik a mért értékek közötti összefüggéseket képesek kiértékelni. Egy neurális hálózat, ami egy sok-sok változóból álló adathalmazt elemez, és észre tudja venni bennük a sémákat. Végül 19 változóra sikerült lecsökkenteni az inputot, ennyiből már lehet hatékonyan dolgozni, és a mostaninál takarékosabb üzemeltetést megvalósítani.
Maga a program egyébként egy high-end desktop gépen is simán elfut, szóval nem kellenek hozzá extrém drága hardverek. Az előzetes tesztek szerint pedig jelentős megtakarításokat lehet elérni az elektromosáram-fogyasztásban.
És mielőtt arról vizionálnánk, hogy emberi beavatkozás nélküli szerverhoszting vagy szerverbérlés szolgáltatást indítsunk el, esetleg mi legyünk a következő egyszemélyes Dropbox, ki kell ábrándítanunk mindenkit: a módszer nem eliminálja az állandó mérnöki munkát. Emberek kellenek a jó döntésekhez, és ahhoz, hogy felülvizsgálják a kiértékelt eredményeket. Legalábbis ebben a kezdeti időszakban.
Szinte biztos azonban, hogy először a nagy szolgáltatók alkalmazzák majd sorra a mesterséges intelligenciát a szervertermekben, aztán a módszer leszivároghat a kisebb adatközpontokba, de akár a nagyobb szervertermekbe, és a komolyabb szerverhoszting cégekhez is.
Mi már szívesen játszanánk vele.
Forrás
www.datacenterknowledge.com
https://static.googleusercontent.com
http://index.hu