UPORABA UMETNIH NEVRONSKIH MREŽ PRI RAZVRŠČANJU LESENIH ELEMENTOV PO TRDNOSTI THE USE OF ARTIFICIAL NEURAL NETWORKS IN STRENGTH TIMBER GRADING Nataša Šinkovec, univ. dipl. inž. grad. Znanstveni članek IGMAT, d. d. UDK: 004:624.01.1:624.07 izr. prof. dr. Goran Turk, univ. dipl. inž. grad doc. dr. Dejan Zupan, univ. dipl. inž. mat. FGG, Jamova 2, Ljubljana Povzetek l Konstrukcijski material je eden izmed ključnih dejavnikov, ki vplivajo na načrtovanje konstrukcij. Ta mora imeti zadovoljivo trdnost, ki zagotavlja ustrezno nosilnost konstrukcije. Za določitev lastnosti lesenih elementov se uporabljajo destruktivne in nedestruktivne metode. V tem prispevku smo za oceno trdnosti lesenih elementov uporabili umetne nevronske mreže. Uporabili smo bazo podatkov 293 lesenih preizkušancev, za katere smo poznali gostoto, in sedem elastičnih modulov, ki so bili dobljeni na podlagi nedestruktivnih metod preizkušanja, ter trdnost, dobljeno na osnovi destruktivne metode. Obravnavali smo več primerov, ki so se med seboj ločili v izbiri vhodnih podatkov. Za gradnjo in učenje nevronskih mrež uporabimo fortranski program NTR2003 in program, ki smo ga zasnovali na osnovi knjižnice nevronskih mrež v programskem paketu Matlab. Med sabo primerjamo uspešnost različnih mrež na osnovi več statističnih kazalcev. Ukvarjamo se tudi z analizo vpliva raztrosa podatkov in predstavimo postopek združevanja učnih parov. Summary l Structural material is of key importance when designing various engineering structures. It should have satisfactory strength that enables a proper load carrying capacity. To determine the characteristics of wooden elements, destructive and nondestructive methods are used. Artificial neural networks have been used in this paper to estimate the strength of structural timber. 293 wooden speciments were taken into consideration. For all specimens, the density and seven elastic modules were measured by indestructive testing methods, while the strength was based on the destructive method. Different examples, in which different input data were used, were taken into closer consideration. For generating and study of neural networks two programs were used: (i) a fortran code NTR2003 and (ii) code based on Neural Network Library in Matlab. The efficiency of various neural networks was compared through several statistical quantities. The effect of data dissipation was also considered and a method for data integration was presented. Nataša Šinkovec, Goran Turk, Dejan Zupan •UPORABA UMETNIH NEVRONSKIH MREŽ PRI RAZVRŠČANJU LESENIH ELEMENTOV PO TRDNOSTI 1«UVOD Les je naraven material, zato njegovih materialnih lastnosti ne moremo projektirati, tako kot to lahko v primeru jekla in v precejšnji meri tudi betona. Materialne lastnosti lesa moramo izmeriti ali kako drugače oceniti za vsak element, ki ga vgradimo v konstrukcijo. Nekatere lastnosti lesa, kot so elastični modul, gostota, zunanji izgled, lahko ocenimo oziroma izmerimo z neporušnimi metodami. Trdnost lesa, ki je pri projektiranju konstrukcij izrednega pomena, lahko zanesljivo določimo le tako, da element porušimo. Pri projektiranju ne uporabljamo dejanskih trdnosti lesenih elementov, ki jih tako ali tako ne poznamo, temveč določene reprezentativne vrednosti, ki pripadajo določenemu trdnostnemu razredu. Pomembno opravilo pri grajenju z lesom je torej razvrščanje konstrukcijskih lesenih elementov v trdnostne razrede. Trdnostni razredi za iglavce so označeni s črko C in reprezentativno trdnostjo, podano v MPa, za listavce pa s črko D in reprezentativno trdnostjo v MPa. V skladu s standardom EN338 morajo leseni elementi določenega trdnostnega razreda ustrezati naslednjim pogojem: • 5-odstotni kvantil trdnosti elementov, ki smo jih razvrstili v določen razred, mora presegati mejno vrednost. • Povprečna vrednost elastičnega modula elementov, ki smo jih razvrstili v določen razred, mora presegati mejno vrednost. • 5-odstotni kvantil gostote elementov, ki smo jih razvrstili v določen razred, mora presegati mejno vrednost. Mejne vrednost za različne vrednosti so podane v preglednici 1. V tem opisu smo podali dve pomembni značilnosti razvrščanja lesa v trdnostne razrede: 1. Trdnostni razred ni odvisen le od trdnosti posameznih elementov, temveč tudi od elastičnega modula in gostote. 2. Pogoji glede trdnosti, elastičnega modula in gostote se ne nanašajo na posamezni element, temveč na celoten vzorec elementov, ki so razvrščeni v določen razred. Tako se lahko zgodi, da posamezni element ne izpolnjuje pogojev, razvrstitev v posamezne razrede pa je pravilna. Do 5 odstotkov elementov v posameznem razredu ima lahko nižjo vrednost trdnosti in gostote, pri elastičnem modulu pa je ta pogoj še bolj sproščen, saj je omejeno povprečje vzorca. Posebej druga značilnost razvrščanja je morda nenavadna, saj smo običajno navajeni, da določen element enolično uvrstimo v določen razred. Zaradi velikega raztrosa in nizke kore-lacije tega v primeru razvrščanja lesa preprosto ne moremo narediti. Poznamo dve osnovni različici razvrščanja lesa v trdnostne razrede: vizualno in strojno razvrščanje. Pri vizualnem razvrščanju kriteriji za razvrščanje temeljijo na lastnostih, ki jih lahko opazimo na površini lesenega elementa: grče, zavitost vlaken, prisotnost stržena, širina branike, razpoke zaradi krčenja, razpoke za- radi strele, lisičavost, ukrivljenost, obarvanost, prisotnost trohnobe, kompresijski les, obžrtost zaradi žuželk ... V Sloveniji nimamo veljavnega standarda za vizualno razvrščanje lesa, prav tako ni enotnega standarda, ki bi veljal za celotno Evropo. Osnovni razlog za tako stanje je, da je les v različnih delih Evrope precej drugačen, različni so tudi pristopi za njegovo vizualno razvrščanje. Nam najbližji standard za vizualno razvrščanje je DIN 4074, ki pa ga ne smemo uporabljati, ker ni eksperimentalne potrditve, da so razmere v Sloveniji enake tistim v Nemčiji in Avstriji. Druga možnost je strojno razvrščanje lesa. Osnovni standard, ki opisuje strojno razvrščanje, je EN 14081. V drugem delu tega standarda je opisan postopek za določitev nastavitev naprave za strojno razvrščanje lesa. Strojno razvrščanje opravimo z napravo, ki meri eno ali več neporušnih lastnosti lesenega elementa. Na osnovi teh rezultatov ter povezave med njimi in trdnostjo, ki smo jo določili s predhodnimi eksperimenti, ocenimo trdnost in posamezni element razvrstimo v določen razred. Predhodni eksperimenti morajo po standardu EN 14081 obsegati vsaj 900 elementov, ki jih najprej preizkušamo z neporušnimi metodami, nazadnje pa določimo še njihovo upogibno trdnost. Zaradi zahtevane varnosti pri projektiranju konstrukcij morajo biti nastavitve naprave pripravljene tako, da je delež elementov, ki jih razvrstimo v previsok razred, omejen. Podrobnosti o postopku določanja nastavitev naprave so podane v Reščič, 2004. Za področje Slovenije trenutno obstajajo nastavitve le za eno napravo (Timber Grader MTG), ki so jo v okviru projekta za razvrščanje konstrukcijskega lesa po trdnosti naredili sodelavci z Nizozemskega. Za nastavitve na drugih napravah in potrditev nastavitev na omenjeni napravi bodo potrebne dodatne, predvsem eksperimentalne raziskave. Pomemben del pri postopku določanja nastavitev naprave je določanje empirične zveze med rezultati neporušnih metod in trdnostjo. Pogosto uporabljene funkcije v empiričnih zvezah so linearne in eksponentne. Eden od alternativnih modelov napovedovanja glavnih lastnosti lesenih preizkušancev so tudi umetne nevronske mreže, ki jih obravnavamo v tem prispevku. V prispevku tako pokažemo, primerjamo in analiziramo sposobnost napovedovanja trdnosti lesa z različnimi nevronskimi mrežami. Za osnovo vzamemo bazo podatkov za 293 preizkušancev. Topol in iglavci Razredi C14 C16 C18 C20 C22 C24 C27 C30 C35 C40 C45 C50 fm,k 14 16 18 20 22 24 27 30 35 40 45 50 E0,mean 7 8 9 9.5 10 11 11,5 12 13 14 15 16 Pk 290 310 320 330 340 350 370 380 400 420 440 460 Listavci Razredi D30 D35 D40 D50 D60 D70 fm,k 30 35 40 50 60 70 E0,mean 10 10 11 14 17 20 Pk 530 560 590 650 700 900 Preglednica 1* Mejne vrednosti za upogibno trdnost, modul elastičnosti in gostoto za trdnostne I razrede iglavcev in listavcev 2 • OBRAVNAVANI PODATKI Slika 1» Prikaz raztrosa za fv odvisnosti od Eg in p Obravnavani podatki so rezultati porušnih in neporušnih preiskav na 293 lesenih preizkušancih kvadraste oblike. Podrobnosti o poteku eksperimentov so podane v (Plos, 2006]. Podatki, pridobljeni s preizkusi, so: gostota p [kg/m3], elastični moduli: Eel (N/mm2), Eeg (N/mm2), Ei (N/mm2), E,_g (N/mm2), EJno (N/mm2), EZag (N/mm2), Es,v (N/mm2) in upo-gibna trdnost f(N/mm2). Elastični moduli E^, Ee.g Ef_i in Ef.gso dobljeni s statičnim obremenilnim preizkusom. Indeks e označuje elastične module, izmerjene na preizkušancih, ki so bili med preiskavo postavljeni pokončno, indeks f pa se nanaša na med preizkusom ležeče preizkušance. Indeksa l in g označujeta dva načina, s katerima merimo elastični modul: lokalno, na osnovi upogibka na delu preizkušanca med koncentriranima obtežbama s konstantnim momentom, in globalno, na osnovi največjega upogibka celotnega preizkušanca. Elastični moduli z indeksi Tno, Zag in Sylv so dinamični moduli elastičnosti. Indeks Tno označuje elastični modul, določen v sodelovanju z inštitutom TNO na Nizozemskem, indeks Zag se nanaša na elastični modul, dobljen na Zavodu za gradbeništvo, indeks Sylv pa pomeni dinamični modul, določen s pomočjo merilne naprave Sylvatest. Značilnost izmerjenih lastnosti gradbenega lesa je velik raztros. Na sliki 1 prikazujemo upogibne trdnosti preizkušancev v odvisnosti od gostote in statičnega elastičnega modula Ef.g. Razberemo lahko, da imajo vzorci s podrobnimi vrednostmi para (f, E,g) velika odstopanja v trdnostih. Podobno velja tudi za ostale podatke. Za gradbeni les je značilen velik raztros, ki pomembno vpliva tudi na napovedovanje trdnosti iz neporušnih podatkov. 3 • UMETNA NEVRONSKA MREŽA Umetne mreže so sicer manjše in manj komplicirane od bioloških, a delujejo na podoben način kot biološke mreže. Gradniki umetnih nevronskih mrež so umetni nevroni oziroma krajše nevroni, ki so med seboj povezani z vezmi, imenovanimi uteži (glej sliko 2). Preko povezav sprejme nevron signal od drugih nevronov, signal ojača ali oslabi in ga pošlje naprej drugim nevronom. Posebnost pri umetnih nevronskih mrežah je, da jih ne programiramo, ampak jih učimo. Nevronska mreža ima »spomin«, kjer hrani vse informacije, pridobljene med učenjem. Učenje zahteva učne in testne podatke, kjer so vhodni in pripadajoči izhodni podatki poimenovani vhodno-izhodni pari. Učni so tisti, na katerih se mreža uči, spreminja povezave oziroma vrednosti uteži med nevroni. Testni vhodno-izhodni pari se uporabijo za ugotavljanje, kako dobro zna nevronska mreža posplošiti naučene zveze. Pri učenju lahko pride tudi do prenaučenosti nevronske mreže, kar pomeni, da je mreža sicer sposobna zelo natančno reproducirati vhodno-izhodne učne pare, ni pa sposobna dovolj dobro napovedati vrednosti za nove podatke. To pomeni, da za vhodno-izhodne pare, ki pri učenju niso bili vključeni, mreža ne bo sposobna generalizacije, torej ne bo zmožna izračunati izhodne vrednosti, ki bi bile podobne dejanskim. Umetne nevronske mreže so bile uporabljene v zelo različnih inženirskih aplikacijah. Podrobnejše preglede teh del lahko najdemo v ((Topping, 1997), (Turk, 1996), (Ambrožič, 2001)). V zadnjem času smo nevronske mreže uspešno aplicirali tudi za modeliranje obnašanja jekla pri visokih temperaturah (Hozjan, 2008). Shema delovanja umetne nevronske mreže je predstavljena na sliki 2. S črko u so označeni posamezni nevroni, s črko o pa pripadajoči izhodni signali. Na primer: iti nevron u, je povezan z nekaj nevroni, od katerih prejme njihove izhodne signale o. Izhodne signale pomnožimo z utežmi wj utežene signale seštejemo in vsoti dodamo vrednost praga signala b.. Tako dobimo vrednost signala v /-tem nevronu. To vrednost preslikamo z izhodno (ali aktivacijsko) funkcijo f, da dobimo o, -izhodni signal i-tega nevrona. Povezave med nevroni in izhodne funkcije predpišemo vnaprej. Pomembna značilnost nevronskih mrež je določitev uteži w, ki jih določimo v postopku »učenja« nevronske mreže na osnovi podatkov. Metod učenja je več, najpogostejša pa je Slika 2* Shema delovanja umetne nevronske mreže posplošeno pravilo delta. Postopek je naslednji: uteži najprej poljubno izberemo, nato pa jih iterativno spreminjamo, dokler razlika med pravimi in z nevronsko mrežo izračunanimi podatki ni dovolj majhna v smislu norme kvadratov razlik. Za oceno trdnosti lesa smo uporabili fortranski program NTR2003 [Turk, 2003] in knjižnico nevronskih mrež v komercialnem programu Matlab [Zupan, 2007]. Opozorimo, da uporabljeni algoritmi niso povsem primerljivi, saj se podprogrami v obeh programih razlikujejo v več podrobnostih. 3.1 Opis parametrov, ki vplivajo na učenje Na uspešnost učenja nevronskih mrež vplivajo mnogi parametri. Največja dovoljena napaka Velikost dovoljene napake pomeni razliko med dejanskimi in z nevronskimi mrežami izračunanimi izhodnimi vrednostmi podatkov oziroma rezultatov. Velikost učnega koraka Pri izbiri velikosti učnega koraka v splošnem velja, da manjša velikost učnega koraka zahteva večje število iteracij in obratno. Vendar obstaja možnost, da se pri velikem učnem koraku umetna nevronska mreža ne nauči dobro, ker ne najde minimuma napake. Maksimalno število iteracij Na osnovi vhodnih podatkov izračuna umetna nevronska mreža vrednost izhodnega podatka v več iteracijah. Vrednost izhodnega podatka je odvisna od vrednosti uteži, določeni pri predhodni iteraciji. Nato mreža primerja izračunane izhodne vrednosti z želenimi in na podlagi teh razlik po posplošenem pravilu delta spremeni vrednosti uteži [Reščič, 2004]. Z maksimalnim številom iteracij omejimo število ciklov učenja. Geometrija mreže Geometrija umetne nevronske mreže se nanaša na število vhodnih in izhodnih nevronov ter na število skritih nivojev in število nevronov na posameznem skritem nivoju. Če je mreža premajhna, ne bo sposobna predstaviti želene funkcije, če je prevelika, lahko pride do prekomernega prileganja (angl. over-fitting). Ponavadi optimalne geometrije mreže ne poznamo, zato je za posamezen problem treba narediti mnogo parametričnih študij, s katerimi najdemo ustrezne dimenzije mreže. Obstajajo alternativne metode, ki temeljijo na učenju večje mreže, kot je potrebno, nato pa se s pomočjo obrezovanja (angl. pruning) odstranijo odvečni deli mreže. Lahko se uporabijo tudi premajhne mreže in se jim nato dodajo povezave, ki omogočijo boljšo generalizacijo. Možna je tudi kombinacija obeh metod. Slika 3* Shema večnivojske usmerjene nevronske mreže Slika 4* Tangentna sigmoidna funkcija Izhodne funkcije Z njimi preslikamo vrednost izhodnega signala. Za naše primere smo uporabili eksponentno sigmoidno izhodno funkcijo pri programu NTR2003 in različne funkcije pri knjižnici mrež v Matlabu (eksponentno sigmoidno, tangent-no sigmoidno (slika 4) in linearno izhodno funkcijo). 3.2 Priprava podatkov na učenje Učenju umetne nevronske mreže je namenjenih 250 naključno izbranih preizkušancev, testiranju pa preostalih 43 preizkušancev, za katere poznamo 9 lastnosti (p, Ee, Ee.g Efl,, Eg ETno, EZag, ESyiv in upogibna trdnost lesa f). Dejansko pri nobeni vrsti preiskav ne merimo vseh omenjenih parametrov istočasno. Zato smo obravnavali različne primere zvez med vhodnimi in izhodnimi podatki, ki se med seboj razlikujejo glede na to, kateri podatki so bili uporabljeni kot vhodni podatki in kateri kot izhodni: - V primeru 1 kot vhodni podatki nastopajo: p, E- Ee-g, Ef-l, Efg, Ejno, Ezag, Es^, kot izhodni podatek pa upogibna trdnost lesa f. - V primeru 2 nastopajo kot vhodni podatki: p, Eg, ETno, kot izhodni podatek pa upogibna trdnost lesa f. - V primeru 5 nastopajo kot vhodni podatki: p, Eg, ETno, kot izhodni podatek pa upogibna trdnost lesa fin Eel. Analizo za druge kombinacije vhodnih in izhodnih podatkov lahko najdete v diplomi [Šinkovec, 2008)]. 3.3 Statistični kazalci uspešnosti nevronske mreže Kako uspešna je bila umetna nevronska mreža pri učenju, ugotovimo, ko ji posredujemo nize testnih parov. Mreža na osnovi vrednosti uteži, izračunanih v zadnji iteraciji učenja, izračuna izhodne vrednosti za testne podatke in jih primerja z dejanskimi vrednostmi. Razlike med dejanskimi in izračunanimi rezultati smo prikazali s pomočjo povprečnega absolutnega odstopanja razlik, standardnega odklona in koeficienta korelacije. 3.4 Program NTR2003 Program NTR2003 je namenjen učenju in testiranju večnivojskih usmerjenih umetnih nevronskih mrež. Proces učenja poteka na osnovi algoritma z vzvratnim širjenjem napake, ki temelji na posplošenem pravilu delta. Zaradi lažjega obvladovanja velikosti posameznih spremenljivk in večje stabilnosti računa vse vrednosti količin preslikamo na interval [0,1, 0,9]. Postopek učenja mreže v NTR2003 je iterativen in poteka na osnovi spreminjanja uteži med nevroni. To pomeni, da večkrat zapored procesira podane nize vhodno-izhodnih podatkov in si skuša »zapomniti« čim več le-teh. Na podlagi »spomina« bo nato umetna nevronska mreža zmožna izračunati za neznani vhodni podatek, ki je podoben učnim, ustrezno izhodno vrednost. Na učenje umetne nevronske mreže vpliva vrsta parametrov, kot so maksimalno število iteracij, velikost učnega koraka, geometrija mreže, multiplikacijski faktor, maksimalna velikost napake in tudi sami podatki, na katerih se mreža uči. Poudarek je ravno na zadnjem parametru, torej na podatkih. Ko je program NTR2003 izračunal vse izbrane tipe mrež, smo za nadaljnjo obravnavo izbrali tisto, ki je imela najmanjše število nenaučenih učnih parov. Nato smo pri izbrani mreži izločili nenaučene pare. Za vsak nenaučeni učni par smo izračunali norme vhodnih podatkov glede na ostale nenaučene učne pare podatkov in glede na naučene učne pare podatkov (slika 5). S tistim učnim parom (nenaučenim ali naučenim), s katerim je nenaučeni par tvoril najmanjšo normo vhodnih podatkov, smo ga združili. Združitev je potekala v smislu izračuna povprečnih vrednosti vhodnih in izhodnih podatkov. Nato so ti novi združeni podatki predstavljali nov učni par, ki je nadomestil tista dva, ki sta tvorila minimalno normo. Ponovno smo testirali mrežo in ugotavljali, kako je združevanje podatkov vplivalo na uspešnost učenja mreže. Testirali smo mreže z enim, dvema ali tremi skritimi nivoji, upoštevali smo 10.000, 50.000 in 100.000 maksimalnih iteracij, največja dovoljena napaka normiranih podatkov je 0,1. 3.4.1 Rezultati Opozorili smo že, da je za podatke značilen velik raztros. V odvisnosti od vhodnih podatkov so se umetne nevronske mreže naučile različno število učnih parov. Najbolj izstopa prvi primer, kjer se je več različnih mrež naučilo vse učne nize podatkov že pred združevanjem parov. Statistični kazalci, ki kažejo uspešnost učenja, so pokazali, da učenje ni bilo preveč uspešno, saj je prišlo do problema prenaučenosti. To pomeni, da se je mreža preveč natančno naučila učne podatke, zato ni bila sposobna dobro gene-ralizirati znanja na testne podatke. Ta problem se pojavlja pri vseh petih primerih, vendar je pri prvem najizrazitejši. Iz poznejšega testiranja se je izkazalo, da bi bilo prenaučenost smiselno rešiti z upoštevanjem manjšega števila maksimalnih iteracij. 3.5 Knjižnica umetnih nevronskih mrež v programu Matlab Za učenje in testiranje umetnih nevronskih mrež smo preizkusili tudi knjižnico nevronskih mrež v programskem paketu Matlab. Zaradi primerjave s programom NTR2003 je izbrani proces učenja mreže v programu Matlab adaptiven in temelji na posplošenem pravilu delta, kombiniranim z momentno metodo pri računu popravkov uteži. Zaradi slabšega obnašanja večnivojskih usmerjenih umetnih nevronskih mrež smo za račun v programu Matlab uporabili umetne nevronske mreže, kjer je vsak nivo povezan z vsemi naslednjimi (slika 6). Velikost dovoljene napake je enaka kot pri uporabi programa NTR2003, maksimalno število iteracij je pri vseh mrežah Slika 5* Vhodni podatek nenaučenega učnega para, ki je podoben naučenemu Slika 6 • Shema umetne nevronske mreže, pri kateri je vsak nivo nevronov povezan z vsemi naslednjimi 100. Za tako maksimalno število iteracij smo se odločili na podlagi večkratnega izračuna istega tipa mreže. Ker program na začetku naključno izbere uteži mreže, se rezultati učenja ustalijo šele po zadostnem maksimalnem številu iteracij. Mreže, dobljene po 100 korakih adaptivnega učenja, pa so se le minimalno razlikovale, ne glede na različne začetne vrednosti uteži. Najprej smo program uporabili na osnovnih podatkih in nato še na združenih. 3.5.1 Rezultati V splošnem geometrija mreže pri računu v Matlabu nima izstopajočega vpliva. Pri izhodnih funkcijah na skritih nivojih se je izkazalo, da ima na število nenaučenih učnih parov najmanjši vpliv logaritemska izhodna funkcija in ravno tako sta pri vseh treh statističnih kazalcih dali boljše rezultate tangentna sigmoid-na in linearna izhodna funkcija. Koeficient korelacije je v nekaterih primerih pri logaritemski sigmoidni funkciji celo negativen, kar pomeni, da se mreža ni pravilno naučila učnih parov. V primerjavi s programom NTR2003 so se umetne nevronske mreže v programu Matlab naučile manj učnih parov, vendar so bile pri kontroli njihovega »znanja« na testnih podatkih uspešnejše. Mreže v Matlabu so sposobne svoje »znanje« bolje posplošiti kot mreže v programu NTR2003, kjer je prihajalo do prenaučenosti. Po združevanju učnih parov se je nekoliko zmanjšal delež nenaučenih učnih parov. Na statistične kazalce, ki pokažejo uspešnost učenja, pa združevanje nima posebnega vpliva. Torej so mreže, računane s programom Matlab, ne- odvisne od podatkov, ki so združeni v smislu minimalne medsebojne norme. To seveda ne pomeni, da drugačne metode združevanja ne bi omogočile boljšega učenja, vendar je to področje nadaljnjih raziskav. 4*SKLEP Rezultati iz programa NTR2003 so pokazali, da se te mreže naučijo veliko učnih parov, vendar so pri posploševanju znanja na testne pare slabe. Združevanje podatkov v smislu minimalne norme učnih parov najbolj vpliva na delež nenaučenih učnih parov, saj se ta po združitvi parov zmanjša. Tudi uspešnost učenja se za malenkost izboljša, vendar ne pri vseh primerih. Torej ima združevanje podatkov v smislu minimalnih norm le manjši vpliv na uspešnost učenja mrež. Zaradi ugotovitve o prenaučenosti mrež smo program NTR2003 preizkusili še z manjšim številom iteracij (5000, 1000 in 100). Rezultati so pokazali, da bi se taka mreža obnašala boljše, saj ni prišlo do prenaučenosti. Naučila se je manj učnih parov, vendar je bila pri posplošitvi znanja na testne pare boljša. Iz rezultatov, dobljenih s programom Mat-lab, se je izkazalo, da imajo na učenje mrež velik vpliv izhodne funkcije na skritih nivojih. Združevanje podatkov v splošnem zmanjša delež nenaučenih učnih parov, uspešnost učenja je od združevanja učnih parov neodvisna. Zaključimo lahko, da je bistveni problem pri lesu velik raztros podatkov. Združevanje zmanjša razpršenost in s tem število nenaučenih parov, vendar seveda uspešnost mreže na testnih podatkih ne more biti bistveno boljša, saj so tudi testni izpostavljeni velikemu raztrosu. Paziti moramo tudi na problem prenaučenosti, kjer sicer naučimo mrežo učnih zvez do zahtevane natančnosti, testni podatki pa so le slabo opisani z utežmi take mreže. Opozoriti je treba, da je možno v programu Matlab uporabiti tudi drugačne tipe mrež, ki imajo vgrajene določene »varovalke« za preprečevanje prenaučenosti. Ena takih »varovalk« je predčasna ustavitev učenja mreže (angl. early stopping), kjer program določen del učnih podatkov uporabi za učenje, preostale pa za kontrolo. Ko prične napaka kontrolnih učnih podatkov naraščati, se učenje mreže ustavi in s tem se prepreči prenaučenost mreže. Potrebno je poudariti, da na uspešnost učenja vpliva še veliko dejavnikov. Uspešnost učenja je merjena na naključno določenih testnih podatkih, ki so ravno tako kot učni, izpostavljeni velikemu raztrosu. Za še boljše rezultate bi bilo smiselno za učenje preizkusiti večje število vhodno-izhodnih parov in preizkusiti druge metode združevanja. 5 • LITERATURA Ambrožič, T., Aplikacija umetnih nevronskih mrež v napovedovanju ugrezanja zaradi podzemnega rudarjenja, Doktorska disertacija, Ljubljana, Univerza v Ljubljani, FGG: 109 f, 2001. Hozjan, T., Turk, G., Srpčič, S., Fire analysis of steel frames with the use of artificial neural networks, Journal of constructional steel research, 63, 10: 1396-1403, 2008. Plos, M., Nedestruktivne metode za razvrščanje gradbenega lesa po trdnosti, Diplomska naloga, Ljubljana, Univerza v Ljubljani, FGG: 59 f, 2006. Reščič, D., Strojno razvrščanje lesa z uporabo nevronskih mrež, Diplomska naloga, Ljubljana, Univerza v Ljubljani, FGG: 63 f, 2004. Rumelhart, D. E., McClelland, J. L., The PDP Research Group, Parallel Distributed Processing, Volume 1: Foundations. Cambridge, The MIT Press: 501 f, 1986. Topping, B. H. V., Bahreininejad, A., Neural computing for structural mechanics, Edinburg, Saxe-Coburg publications: 176 f, 1997. Turk, G., Logar, J., Uporaba umetne inteligence v gradbeni konstruktivi, Gradbeni vestnik 35, 5-6-7, 147-153, 1996. Turk, G., Program NTR2003, Ljubljana, 2003. Zupan, D., Programski jezik Matlab, Kratek tečaj, Ljubljana, Univerza v Ljubljani, FGG, 2007. Saerle, ftp://ftp.sas.com/pub/neural/faq.html#questions, 19. 2. 2008. Standardi DIN 4074-1: 2003, Sortierung von Holz nach der Tragfähigkeit, Teil 1: Nadelschnittholz. DIN 4074-2: 1958, Bauholz für Holzbauteile, Gütebedingungen für Baurundholz (Nadelholz). DIN 4074-3: 2003, Sortierung von Holz nach der Tragfähigkeit, Teil 3: Sortiermaschinen für Schnittholz, Anforderungen und Prüfung. DIN 4074-4: 2003, Sortierung von Holz nach der Tragfähigkeit, Teil 4: Nachweis der Eignung zur maschinellen Schnittholzsortierung. DIN 4074-5: 2003, Sortierung von Holz nach der Tragfähigkeit, Teil 5: Laubschnittholz/Achtung: Gilt in Verbindung mit DIN 6779-1 und DIN 6779-2. EN 338: Structural timber - Strength Classes, april 2003. SIST EN 14081-1: 2006, Lesene konstrukcije, Razvrščanje konstrukcijskega lesa s pravokotnim prečnim prerezom po trdnosti, 1. del, Splošne zahteve. EN 14081-2: 2005, Timber structures, Strength graded structural timber with rectangular cross section, Part 2, Machine grading, Additional requirements for initial type testing. SIST EN 14081-3: 2006, Lesene Konstrukcije, Razvrščanje konstrukcijskega lesa s fazonskimi kosi po trdnosti, 3. del, Strojno razvrščanje; dodatne zahteve za notranjo kontrolo proizvodnje. SIST EN 14081-4: 2005 + A2: 2008, Lesene konstrukcije, Razvrščanje konstrukcijskega lesa pravokotnega prečnega prereza po trdnosti, 4. del, Strojno razvrščanje - Nastavitev strojev za razvrščanje pri strojno kontroliranih sistemih.