literat urverzeichnis - springer978-3-663-05690-4/1.pdf · literat urverzeichnis [1] igor alexander...
Post on 23-Aug-2019
222 Views
Preview:
TRANSCRIPT
Literat urverzeichnis [1] Igor Alexander and Helen Morton. An Introduction to Neural Computing.
Chapman and Hall, London, 1990.
[2] Roger Barlow. Statistics: A Guide to the Use of Statistical Methods in the Physical Sciences. The Manchester Physics Series. John Wiley & Sons, Chichester, 1989.
[3] Roger Barlow. Extended maximum likelihood. Nuclear Instr. and Methods in Phys. Res. A, 297:496, 1990.
[4] J. M. Bernardo and A. F. M. Smith. Bayesian Theory. John Wiley and Sons Ltd, 1994.
[5] Thomas Beth. Verfahren der schnellen Fourier-Transformation. Teubner, 1984.
[6] Volker Blobe!. Unfolding methods in high-energy physics experiments. In CERN School of Computing, 1985. Bericht CERN 85-02.
[7] Siegmund Brandt. Statistical and Computational Methods in Data Analysis. North Holland, 1976.
[8] Siegmund Brandt. Datenanalyse. Wissenschaftsverlag, Mann-heimjLeipzigjWienjZürich, 1992.
[9] F. P. Brooks Jr. The Mythical Man-Month. Addison Wesley, 1995.
[10] C. G. Broydon. The convergence of a dass of double-rank minimization algorithms. Inst. Maths. Applics., 6, 1970.
[11] A. Compagner. Operation al conditions for random-number generation. Physical Review E, 52:5634, 1995.
[12] Harald Cramer. Mathematical Theory of Statistics. Princeton University Press, Princeton, 1954.
[13] Giulio D'Agostini. Probability and measurement uncertainty in physics ~ a Bayesian primer. Bericht DESY 95-242, 1995.
[14] W. C. Davidon. Variable metric methods for minimization. A.E.C. Res. and Dev. Rep. ANL-5990, ANL, 1959.
[15] Carl de Boor. A Practical Guide to Splines, volume 27 of Applied Mathematical Sciences. Springer-Verlag, 1978.
[16] Edsger W. Dijkstra. A note on two problems in connexion with graphs. Numerische Mathematik, 1:269~271, 1959.
350 LITERATURVERZEICHNIS
[17) W. T. Eadie, D. Drijard, F. E. James, M. Roos, and B. Sadoulet. Statistical Methods in Experimental Physics. North Holland, 1971.
[18) R. Fletcher. A new approach to variable metric algorithms. Comp. J., 13, 1970.
[19) Philip E. Gill, Walter Murray, and Margarete H. Wright. Practical Optimization. Academic Press, New York and London, 1981.
[20] D. Goldfarb. A family of variable metric methods derived by variational means. Mathematics 0/ Computation, 24, 1970.
[21) Particle Data Group. Review of particle physics. Physical Review D Partides and Fields, 54:1, 1996.
[22) Fritz Gutbrod. A fast random number generator for the intel paragon supercomputer. Computer Physics Communications, 87:291, 1995.
[23) Fritz Gutbrod. On the periods of the ranshi random number generator. Int. Journal 0/ Modern Physics C, 7:909, 1996.
[24) J. Hertz, A. Krogh, and R. G. Palmer. Introduction to the Theory 0/ Neural Computation. Addison-Wesley, 1991.
[25] C. A. R. Hoare. Quicksort. Computer Journal, 5(1):10-15, 1962.
[26) A. Höcker and V. Kartvelishvili. Svd approach to data unfolding. Nud. Instr. and Methods A, 372:469 - 481, 1996.
[27) Kurt Hornik. Approximation capabilities of multilayer feedforward networks. Neural Networks, 4:251, 1991.
(28) F. James. RANLUX: A Fortran implementation of the high-quality pseudorandom number generator of Lüscher. Comp. Phys. Comm., 79:111, 1994.
[29) F. James and M. Roos. Minuit - a system for function minimization and analysis of parameter errors and correlations. Comp. Phys. Comm., 10, 1972.
[30) Brian W. Kernighan and Dennis M. Ritchie. Programmieren in C. Hanser und Prentice-Hall Internat., 1990.
[31) D. E. Knuth. The Art 0/ Computer Programming, Volume II: Seminumerical Algorithms. Computer Science and Information Processing. Addison Wesley, Reading, Mass., 1981.
[32] E. L. Kosarev and E. Pantos. Optimal smoothing of noisy data by fast Fourier transform. Scientific Instruments, 16:537-543, 1983.
LITERATURVERZEICHNIS 351
[33] Walter Kraemer. Denkste. Piper, 1998.
[34] J. B. Kruskal, Jr. On the shortest spanning subtree of a graph and the travelling salesman problem. Proceedings of the AMS, 7(1):48-50, 1956.
[35] C. L. Lawson and R. J. Hanson. Solving Least Squares Problems. Prentice Hall, Englewood Cliffs, 1974.
[36] Ludger Lindemann and G. Zeeh. Unfolding by weighting Monte Carlo events. Nucl.lnstr. and Methods A, 354:516, 1994.
[37] Martin Lueseher. A portable high-quality random number generator for lattice field theory simulations. Bericht DESY 93-133, 1993.
[38] Louis Lyons. Statistics for Nuclear and Particle Physicists. Cambridge University Press, Cambridge, 1986.
[39] P. Mazzanti and R. Odorieo. Bottom jet reeognition by neural networks and statistical diseriminants. Zeitschrift für Physik C, 59:273, 1993.
[40] Alexander M. Mood and Franklin A. Graybill. Introduction to the Theory of Statistics. Series in Probability and Statisties. Me Graw-Hill, 1963.
[41] Glenford J. Myers. The Art of Software Testing. John Wiley and Sons, 1979.
[42] Glenford J. Myers. Methodisches Testen von Programmen. Oldenbourg, 1991.
[43] J. A. Neider and R. Mead. Computer Journal, 7:308, 1965.
[44] S. J. Press. Bayesian Statistics: Principles, Models, and Applications. John Wiley and Sons, 1989.
[45] William H. Press, Saul A. Teukolsky, William T. Vetterling, and Brian P. Flannery. Numerical Recipes in FORTRAN. The Art of Scientific Computing. Cambridge University Press, Cambridge, 1992.
[46] S. W. Proveneher. A eonstrained regularization method for inverting data represented by a linear algebraie or integral equation. Comp. Phys. Comm., 27:213-227, 1982.
[47] R. Rojas. Theorie der neuronalen Netze. Springer, 1993.
[48] B. W. Rust and W. R. Burrus. Mathematical Programming and the Numerical Solution of Linear Equations. American Elsevier Publishing Company, New York. 1972.
352 LITERATURVERZEICHNIS
[49J M. Schmelling. The method of reduced cross-entropy. A general approach to unfold probability distributions. Nuclear Instr. and Methods in Phys. Res. A, 340:400, 1990.
[50J H. R. Schwarz. Numerische Mathematik. Teubner, Stuttgart, 1993.
[51J H. R. Schwarz, H. Rutishauser, and E. Stiefel. Numerik symmetrischer Matrizen. Teubner, Stuttgart, 1968.
[52J D. F. Shanno. Conditions of quasi-newton methods for function minimization. Mathematics of Computation, 24, 1970.
[53J Donald L. Shell. A high-speed sorting procedure. Communications of the ACM, 2(7):30-32, 1959.
[54J Ralph Sinkus. A novel approach to error function minimization for feed forward neural networks. Nucl. Instr. and Meth. in Phys. Res. A, 361:290, 1995.
[55J A. M. Tikhonov and V. Y. Arsenin. Metody resheniya nekorrektnyh zadach (Methods for Solution of ill-posed Problems). Nauka, Moskau, 1979.
[56J I. Vattulainen, T. Ala-Nissila, and K. Kankaala. Physical tests for random numbers in simulation. Physical Review Letters, 73:2513, 1994.
[57] I. Vattulainen, K. Kankaala, J. Saarinen, and T. Ala-Nissila. A comparative study of some pseudorandom number generators. Comp. Phys. Comm., 86:209, 1995.
[58] A. D. Whalen. Detection of Signals in Noise. Academic Press, 1990.
[59J J. W. J. Williams. Algorithm 232: Heapsort. Communications ofthe ACM, 7(6):347-348, 1964.
[60J R. L. Winkler. An introduction to Bayesian inference and decision. Holt, Rinehart and Winston,Inc., 1972.
[61J G. Zech. Comparing statistical data to Monte Carlo simulation - parameter fitting and unfolding. Bericht DESY 95-113, 1995.
Index
Abhängigkeit logarithmische, 29
Abstandsverteil ung, 117 Abtasttheorem, 18 Äquivalenzklassen, 52 Akzeptanz, 330, 332 Algorithmus, 28
Auswahlsortieren, 37 berechenbare Speicheradressen,
51 binäre Suche, 50 gierig, 55 hashing, 51 Heapsort, 45 Mergesort, 48 quicksort, 42 Rechenzeitbedarf, 28 sequentielles Suchen, 49 Shell's sortieren, 38 Sortieren, 36 Suche, 49
Alphabet, 11 Analogsignale, 18 array, 31 ASCII, 17
B-Spline-Funktion, 313 Basis, 313
Baud, 17 Baum
binärer, 45 heap,45
Bayes' Theorem, 95 Bayes'sche Statistik, 204 Bedingungen
Optimierung, 276, 281
Berechnungswerkzeuge, 24 Bereich
erlaubter, 275 Binärzahlen, 11 Binomialtheorem, 104 Binomialverteilung, 105 BIT,l1 bit, 12 Breit-Wigner Verteilung, 124
Cauchy-Verteilung, 123 charakteristische Funktion, 118 X2 - Verteilung, 119 X2- Test, 286 Cholesky-Zerlegung, 69, 75 Code-Redundanz, 16 Codierung, 13 Codierungstheorem, 14 Cramersche Regel, 58 Crout-Methode, 69, 71
Datei,33 Datenübertragung, 17
mit Fehlern, 17 Datenfeld
n-dimensionales, 31 Datenkomprimierung, 16 Datensatz, 36 Datenstrukturen, 31
abstrakte Datentypen, 32 Baum, 32, 35 Datei,33 Datenfeld, 31, 33 Datenfelder, 33 Datensatz, 33 elementare Operationen, 34
354
file, 33 Graph, 35 Knoten, 34, 35 link,34 record,33 Stapel, 32 verkettete Listen, 32 Vertex, 35 Warteschlange, 32 Zweig, 35
Determinante, 58 Dienstbibliotheken, 24 Differentiation
numerische, 269, 271 Diskrepanz, 177 Drehung, 82 Drehwinkel, 84
Eigenvektor, 60, 81 Eigenwert, 60, 81 Entfaltung, 330
Diskretisierung, 337 in zwei Intervallen, 333 mit Regularisierung, 341 ohne Regularisierung, 338 periodische Verteilungen, 334
Entropie, 13 Erwartungstreue, 199 Erwartungswert, 100
F-Test, 291 F -Verteilung, 125 Fakultät, 104 Fallanalyse
durchschnittlicher Fall, 30 ungünstigster Fall, 30
Faltung, 151 Faltungsintegral, 330 Fast Fourier Transform, 329 feed-forward Netz, 300 Fehler, 101
asymmetrische, 190, 191 statistische, 178 systematische, 178, 210
Fehler erster Art, 294
INDEX
Fehler zweiter Art, 294 Fehlerfortpflanzung, 145-148, 331 Fehlerfunktion, 115 Fehlerkorrektur, 18 Fibonacci Generator, 157 file, 33 Fishersche Diskriminantenmethode,
299 Fouriertransformation, 18, 328
diskrete, 328 Freiheitsgrade, 120 Funktion
hash,52 unimodal, 245
FWHM,114
Gammafunktion, 104 Gammaverteilung, 116 Ganzzahlen, 20 gap test, 162 Gauß-Verteilung, 111
Faltung, 151 mehrdimensionale, 143 standardisierte, 112 zweidimensionale, 138
Gaußfunktion integrierte, 114
Geburtstage, 96 Geradenanpassung, 224 Gesetz der großen Zahl, 129 Gewichte, 134, 295 Gewichtung, 173 Gleichungssystem
überbestimmtes, 89 Lösung, 69 lineares, 89 schlecht konditioniertes, 91 unbestimmtes, 89
Gleichverteilung, 111, 193 Gleitkommazahlen, 21 Gradient, 240 Graph
gewichteter, 54
Häufungspunkt, 48
INDEX
hash,51 Hesse-Matrix, 241
Näherung, 269 Histogramme, 288
Anpassung, 194 Huffman-Codierung, 15, 16
IEEE-Norm, 21 importance sampling, 172 Indizierung, 31 Information, 11 Informationsmenge, 11 Integralgleichung
Fredholm, 330 Integration
Monte Carlo, 170 numerische, 175
Interpolation, 305 lineare, 306
Jacobi-Methode, 84 zyklische, 85
Kapazität, 17 eines Datenübertragungskanals,
20 Klassen
Äquivalenz, 52 kleinste Quadrate, 212
Datenkorrektur, 218 Eigenschaften, 213, 219 Gauß-Markoff-Theorem, 220 Gauß-verteilte Daten, 221 Gauß-Verteilung, 213 Geradenanpassung, 224 gewichtete, 222 Gewichtsmatrix, 222 iteratives Vorgehen, 229 Konvergenz, 231 Kovarianzmatrix, 217 linearer Fall, 214 Linearisierung, 230 Maximum-Likelihood, 188, 213 Nebenbedingungen, 232 nichtlinearer Fall, 230
355
Normalgleichungen, 215 Prinzip, 212, 213, 215 Quadratsumme, 218, 220 Reduktion der Matrixgröße, 228 Regression, 227 Residuen, 212, 214, 219, 230 Summe der Quadrate, 212 Wahrscheinlichkeitsdichte, 214,
219, 221 Knoten, 34 Kolmogorov-Smirnov-Test, 291 Kombinatorik, 103 Kondition, 331 Konfidenz, 285 Konfidenzgrenze, 201, 285
für Poisson-Verteilung, 202 Konfidenzniveau, 285 Konsistenz, 331 Kontrollfunktion, 172 Konvergenz, 249, 278, 280 Korrelationskoeffizient, 137 Korrelationstest, 161 Kosten, 295, 296 Kovarianz, 137 Kovarianzmatrix, 142, 191 kritische Region, 292 kritischer Wert, 293
Lückenverteilung, 117 Lagrange-Funktion, 277 Lagrangesche Multiplikatoren, 232,
276 Landau-Verteilung, 183 Likelihood-Funktion, 184 li ne search, 245 Linearisierung, 230 link, 33 Liste, 33 Listen
Vereinigen, 47 Log-Likelihood-Funktion
negative, 185
Matrix, 31, 57 Band-, 60, 78
356
Diagonal-, 61, 82 Diagonalisierung, 88, 90 Dreiecks-, 68 Einheits-, 57 Inverse, 59, 60, 64-66, 69, 70,
74,78 Inversion durch Partitionierung,
78 Inversion durch Rändern, 81 Jacobi-, 275, 279 Konditionszahl, 242 Multiplikation, 58 nicht-singuläre, 59 orthogonale, 82 orthonormale, 82 positiv definite, 62, 78, 82, 243 projizierte Hesse-Matrix, 276 quadratische, 57 Rang, 92 reguläre, 59 Singulärwertzerlegung, 91 symmetrische, 62, 66, 80, 88 Transfer-, 331 Zerlegung, 68
Matrixelement Diagonal-, 57
Matrixzerlegung, 71 Cholesky, 75
Maximierung, 239 Maximum Likelihood
Invarianzeigenschaft, 190 Maximum-Likelihood, 183, 239
asymptotisches Verhalten, 199 Erwartungstreue, 198 erweiterte Methode, 197 Fehler, 189 Konsistenz, 198
Meßgenauigkeit, 330 Median, 28, 102 Merge,47 Methode
Kosten, 279 Lagrangesehe Multiplikatoren, 277,
279,282
Variablenreduktion, 278 Minimax-Kriterium, 296 Minimierung, 239
goldener Schnitt, 246 eindimensionale, 245
INDEX
einfache Parametervariation, 254 Gittersuchmethode, 253 line search, 262 mit Schranken, 283 modifizierte Newton-Methode, 268 Monte Carlo Such methode , 254 Newton-Methode, 248, 260 ohne Nebenbedingungen, 240 Polynominterpolation, 251 Simplex-Methode, 255 Standardalgorithmus, 263 steilster Abstieg, 266 Suche, 252 Suchmethoden, 245 variable Metrik, 270
Minimum globales, 240 lokales, 240
Minimum spanning tree, 54 Mittelwert, 98,102,137,142,179
einer Gleichverteilung, 183 mit Abschneiden, 181 Schätzung, 204
Momente, 101 Monte Carlo-Integration, 170 Monte Carlo-Methoden, 154
Neben bedingungen aktive, 280 Gleichungen, 275 inaktive, 280 lineare Gleichungen, 276 nichtlineare Gleichungen, 279 Ungleichungen, 280
Nebenwirkungen, 26 Neuronale Netze, 300 Normalgleichungen, 89 Normalverteilung, 111 Normierungsfehler, 211
INDEX
Nullraum, 91 numerische Daten, 20
Optimierung, 239 Bedingungen, 241
Ordnung invers lexikalische, 31 lexikalische, 31
Orthogonale Polynome, 320 Polynomanpassung, 325, 327
Parameterschätzung, 178 Kriterien, 178 mit systematischen Fehlern 211
Parametrisierung, 305 ' Paritätstest, 18 Partitionierung, 78, 172 Periode, 156 Pivotelement, 64, 84 Poisson-Verteilung, 107, 191 Polynom, 308
charakteristisches, 60 Polynome
orthogonale, 307 Posterior, 205 Prüfung von Hypothesen, 285 Prafixeigenschaft, 14 Prior, 205 Produkt
skalares, von Vektoren, 57 Programmierungsregeln, 23 Programmorganisation, 23 Programmprüfung, 24 Pseudo-Zufallszahlen, 155 pun, 236 Punkt
erlaubter, 275
quadratische Form, 78, 82 quadratischer Mittelwert, 102 Quantile, 28 Quasi-Zufallszahlen, 176
Rändern, 81 random walk test, 162
Randverteilung, 136 Rang, 42 Rangtabelle, 42 record,36 Reflexion, 18 Regression, 227, 305 Regularisierung, 332, 342 Residuen, 89, 212, 214, 219 Richtmyer-Generator, 177 rms, 102 Rotation
Jacobi,84
357
Rundungsfehler, 22, 60, 64, 65, 81, 218, 271-273
Saatzahl, 156 Schätzung
erwartungstreue, 132 unverzerrte, 132
Schiefe, 101 Simplex-Methode, 255 Simpsonsche Regel, 176 Sortieren, 29, 36
durch Auswahl, 37 durch Einfügen, 37 große Datensätze, 40 Heapsort, 45 Mergesort, 48 Quicksort, 42 Shell's Algorithmus, 38
Sortierschlüssel, 36 spanning tree, 55 Speicherung
spaltenweise, 31 zeilenweise, 31
spektrale Zerlegung, 241 Spline-Funktion, 308
Eigenschaften, 310 Koeffizienten, 310 kubische, 308 natürliche, 309 vollständige, 309
Standardabweichung, 101, 190 Stapel, 35
358
stationärer Punkt, 241, 243 Stichprobe, 131
Mittelwert, 131, 135 Varianz, 131, 135
Stirlingsche Formel, 104 Students Test, 290 Suche, 49
binäre, 50 sequentielle, 49
symmetrische Matrix Eigenvektoren, 241 Eigenwerte, 241
t-Verteilung, 124 Tabelle, 31
Index, 42 Rang, 42
Testgröße, 292 tools, 24 Transfermatrix, 331 Transformation
Ähnlichkeits-, 61, 83 Householder-, 87 inverse, 59 lineare, 59 mehrerer Variabler, 146 von Wahrscheinlichkeitsdichten,
145 Trapezregel, 175 Tschebyscheff-Ungleichung, 128
up-down test, 161
Variable Schranken, 283 Transformation, 275
Varianz, 101, 102, 137 minimale, 200
Varianzred uktion, 171 Vektor, 31, 57
orthogonaler, 57 projizierter Gradient, 276 transponierter, 57
Vertauschen von Variablen, 63 Verteilungen, 98
Messung, 330 Verteilungsfunktion, 100 Verwurfsregion, 292
Auswahl, 294
INDEX
volle Breite auf halber Höhe, 114
Wahrscheinlichkeit, 93 bedingte, 95 Kombination, 94
Wahrscheinlichkeitsdichte, 99 bedingte, 136 mehrdimensionale, 142 Transformation, 145
Wahrscheinlichkeitsverteilung, 100 wahrscheinlichster Wert, 102 Warteschlange, 35
Zeiger, 33 zentraler Grenzwertsatz, 129 Ziegenproblem, 96 Zipfs Gesetz, 15 Zufallsvariable, 98
diskrete, 98 in zwei Dimensionen, 136 kontinuierliche, 99
Zufallswinkel, 165 Zufallszahlen, 155
allgemeine Verteilung, 162 Binomialverteilung, 170 Cauchy-Verteilung, 170 X2 Verteilung, 169 für spezielle Verteilungen, 165 gleichförmige, 155 Normalverteilung, 166, 167 Poisson-Verteilung, 168 Pseudo-, 155 Quasi-, 176
Zufallszahlengenerator , 155 Test, 161
Zweierkomplement, 20
Butz Fouriertransformation für Fußgänger
Von Prof. Dr. Tilman Butz Universität Leipzig
1998. ca. 160 Seiten. 16,2 x 22,9 cm. Kart. ca. DM 45,ÖS 329,- I SFr 41,ISBN 3-00202-7
Diese Schrift ist ein unterhaltsames Lehrbuch. Es wendet sich an alle, die in der Ausbildung und in ihrer beruflichen Praxis mit Fouriertransformationen zu tun haben: Studenten der Ingenieur- und Naturwissenschaften ab dem I. Semester, aber auch Berufstätige, die Spektralanalysen oder Fouriertransformationsmethoden benöti-
Fouriertransfonnation für Fußgänger
gen. Dabei sind elementare Kenntnisse der Integralrechnung wünschenswert.
Das Buch behandelt sowohl Fourierreihen als auch kontinuierliche und diskrete Fouriertransformationen. Außerdem werden Fensterfunktionen ausführlich diskutiert. Zahlreiche Abbildungen und Beispiele, die vom Leser meist von Hand nachgerechnet werden können, machen den Stoff »leicht verdaulich«.
Preisänderungen vorbehalten.
B. G. Teubner Stuttgart . Leipzig
Bandemer Ratschläge zum mathematischen Umgang mit Ungewißheit Reasonable Computing
Von Prof. Dr. Hans Bandemer Halle/Saale
1997. 228 Seiten mit 23 Bildern. 16,2 x 22,9 cm. Geb. DM 54,80 ÖS 400,-/ SFr 49,ISBN 3-8154-2118-7
Auf der Basis seiner jahrzehntelangen Erfahrungen mit der Anwendung mathematischer Methoden gibt der Autor Ratschläge, wie die den Problemen und Daten innewohnende Unsicherheit, die Ungewißheit und Vagheit mathematisch erfaßt und verwendet werden können. Das Spektrum reicht dabei von der einfachen Interpolation bis
hin zu Wavelets, von der Fehlerfortpflanzung bis zur Fuzzytheorie und neuronalen Netzen. Der Schwerpunkt des Buches liegt in der hauptsächlich verbalen Darlegung der Grundgedanken der einzelnen Zugänge und in Ratschlägen für deren vernünftige Benutzung in Abhängigkeit von der Zielstellung und der Informationslage des gegebenen praktischen Problems. Zum Verständnis genügt dem Leser ein Grundkurs in Mathematik auf Hochschulniveau.
Preisänderungen vorbehalten.
B. G. Teubner Stuttgart . Leipzig
top related