tabu search

Upload: mario-cesar-gomez-vidal

Post on 13-Jul-2015

415 views

Category:

Documents


0 download

TRANSCRIPT

IndiceGeneralPresentaci on vPrefacio viiParteI Introduccion 1CaptuloI:Introducci onalosmetaheursticos 3M.Laguna,C.Delgado1 Problemasdeoptimizaciondifciles . . . . . . . . . . . . . . . . . . 32 EnfoquesBasicosdeSoluci on . . . . . . . . . . . . . . . . . . . . . 73 Metaheursticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25CaptuloII:Introducci onalaB usquedaTab u 29B.Meli an,F.Glover1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292 LaestructuradelaB usquedaTab u. . . . . . . . . . . . . . . . . . 303 FundamentosdelaB usquedaTab u: MemoriaaCortoPlazo. . . . 414 FundamentosdelaB usquedaTab u: Memoriaalargoplazo . . . . 535 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71ParteII Metaheursticos 73CaptuloIII:GRASP:Procedimientosdeb usquedamiopes,aleato-rizadosyadaptativos 75J.L.Gonz alezVelarde1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 752 ConstruccionesGRASP . . . . . . . . . . . . . . . . . . . . . . . . 763 B usquedalocal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80Rect@ Monogr aco 3(2007)iiINDICEGENERAL4 EstructurasdememoriaenGRASP . . . . . . . . . . . . . . . . . 825 GRASPContinuo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 856 Aplicaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 867 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87CaptuloIV: PrincipiosdelaB usquedaDispersa 97S.Casado, R.Mart1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 972 MetodoBasico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1003 Estrategias Avanzadas . . . . . . . . . . . . . . . . . . . . . . . . . 1034 AplicaciondeSSaunProblemadeLocalizacion . . . . . . . . . . 1085 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1146 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114CaptuloV:MetaheursticosenProgramacionMultiobjetivo 117R.Caballero, J.Molina, A.G.Hern andez-Daz1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1172 ProblemasMultiobjetivo. . . . . . . . . . . . . . . . . . . . . . . . 1193 AlgoritmosMetaheursticos . . . . . . . . . . . . . . . . . . . . . . 1214 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1315 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132CaptuloVI: UnaVisionGeneraldelosAlgoritmosMemeticos 139C.Cotta1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1392 UnAlgoritmoMemeticoBasico . . . . . . . . . . . . . . . . . . . . 1403 Dise nodeMAsEfectivos . . . . . . . . . . . . . . . . . . . . . . . . 1434 AplicacionesdelosMA . . . . . . . . . . . . . . . . . . . . . . . . 1485 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1506 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151CaptuloVII:B usquedasMultiarranque 167AbrahamDuarte,Rafael Mart. J.MarcosMoreno-Vega1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1672 B usquedaLocal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1683 Multiarranque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1724 Metodos multi-arranque paraelproblemadelaM aximaDiversidad1785 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184Rect@ Monogr aco 3(2007)INDICEGENERAL iiiParteIII Aplicaciones 189Captulo VIII: GRASPy Tabu Search para problemas de cortebidimensionalno-guillotina 191R.Alvarez-Valdes,F.Parre no, J.M.Tamarit1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1912 Descripciondelproblema . . . . . . . . . . . . . . . . . . . . . . . 1923 Unalgoritmoconstructivo . . . . . . . . . . . . . . . . . . . . . . . 1944 UnalgoritmoGRASP . . . . . . . . . . . . . . . . . . . . . . . . . 1965 AlgoritmoTabuSearch . . . . . . . . . . . . . . . . . . . . . . . . 1996 Estudiocomputacional . . . . . . . . . . . . . . . . . . . . . . . . . 2057 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208CaptuloIX: Precedimientos heursticos para lasecuenciaciondeproyectosconrecursosparcialmenterenovables 215R.Alvarez-Valdes,E.Crespo,J.M.Tamarit,F.Villa1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2152 Formulaci ondelproblema . . . . . . . . . . . . . . . . . . . . . . . 2173 Elpreproceso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2184 ElprocedimientoGRASP . . . . . . . . . . . . . . . . . . . . . . . 2195 ElprocedimientodeScatterSearch. . . . . . . . . . . . . . . . . . 2256 Resultadoscomputacionales . . . . . . . . . . . . . . . . . . . . . . 2287 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2368 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237CaptuloX: B usquedapor Entornos Variables para PlanicacionLogstica 239J.A.MorenoPerezyN.Mladenovic1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2392 EsquemasFundamentales . . . . . . . . . . . . . . . . . . . . . . . 2403 ExtensionesdelaVNS. . . . . . . . . . . . . . . . . . . . . . . . . 2484 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257CaptuloXI: Nuevos movimientos vecinales basados enEjectionChainsparaelMinmaxVRP 265J.F.Alegre,J.A.Pacheco1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2652 MovimientosIntrarutas. . . . . . . . . . . . . . . . . . . . . . . 2683 MovimientosEntrerutas . . . . . . . . . . . . . . . . . . . . . . 2694 Concatenaciondemovimientossimples: Ejectionchains . . . . . 2725 NuevasEjectionChainsparaelMinmaxVRP . . . . . . . . . . 2766 ResultadosComputacionales . . . . . . . . . . . . . . . . . . . . . . 2797 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281Rect@ Monogr aco 3(2007)ivINDICEGENERAL8 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281Captulo XII: Planicacionde la producci onenuna empresa decontrachapado 285V.Valls,F.Ballestn, P.Lino,A.Perez,S.Quintanilla1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2852 Descripciondelprocesoproductivo . . . . . . . . . . . . . . . . . . 2863 Sistemadeinformacionparalagesti onintegralGESPLAN . . . . 2884 Algoritmoheursticoparalaplanicaciondelamaquinadecorte . 2895 Basededatos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2966 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3007 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301CaptuloXIII: MejorandolassolucionesdeunStripPackingPro-blem. Metododemejoradependientedelproblema 303J.I.Garcadel Amo,J.M.Moreno-Vega1 Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3032 StripPackingProblem. . . . . . . . . . . . . . . . . . . . . . . . . 3043 GreedyRandomizedAdaptiveSearchProcedures . . . . . . . . . 3054 GRASPparaelStripPackingProblem. . . . . . . . . . . . . . . . 3065 Experienciacomputacional . . . . . . . . . . . . . . . . . . . . . . 3106 Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312Rect@ Monogr aco 3(2007)PresentacionCon la aparici on de este volumen 3 de los Monogr acos de Rect@ se consolidael proyecto que el Consejo Editorial de la revista impulso como complemento de losn umeros ordinarios de la revista. Esta idea inicial de editar vol umenes especcossobremateriasconcretasdeinvestigacion,hetenidounabuenaacogidaentrelosmiembrosdelacomunidadcientca, tantoasociadoscomonodeASEPUMA,yaquelasventasdelosn umerosanteriorespermitennanciarparcialmentelaedici ondelosnuevosvol umenes.En esta presentacion quisiera agradecer el trabajo de los coordinadores (EnricCrespo, RafaMarti yJoaqunPacheco)deestevolumen(extensivaalosdelosanteriores) por la labor de captacion de colaboradores, la revision de los trabajos,lacomposiciondelostextos,etc.Esteagradecimientotambiendebeserextensivoalosmiembrosdel ConsejodeRedaccion(CarlosIvorrayVicenteLiern).Por ultimo, recordar a todos los miembros que el futuro de estas ediciones y dela revista reside en la implicacion de todos en la colaboraci on, aportacion de ideasy sugerencias para que este tipo de publicaciones sea una referencia generalmenteaceptadadentrodel campodelasaplicacionescuantitativasalaEconomaylaEmpresa.RamonSalaResponsabledeedici [email protected]@ Monogr aco 3(2007)PrefacioLos metodos descritos en este volumen reciben el nombre de algoritmos heurs-ticos, metaheursticos o sencillamente heursticos. Este termino deriva de la pala-bra griega heuriskeinquesignica encontrar o descubrir yse usaenelambito dela optimizacion para describir una clase de algoritmos de resolucion de problemas.Enel lenguajecoloquial, optimizarsignicapocomasquemejorar; sinem-bargo, en el contexto cientco la optimizacion es el proceso de tratar de encontrarla mejor solucion posible para undeterminado problema. En un problema deop-timizaci onexistendiferentessoluciones, uncriterioparadiscriminarentreellasyel objetivoesencontrarlamejor. Deformamasprecisa, estosproblemassepuedenexpresarcomoencontrarel valordeunasvariablesdedecisionparalosqueunadeterminadafunci onobjetivoalcanzasuvalormaximoomnimo. Elvalordelasvariablesenocasionesest asujetoaunasrestricciones.La existencia de una gran cantidad y variedad de problemas difciles de optimi-zacion que aparecen en la practica y que necesitan ser resueltos de forma eciente,ha impulsado el desarrollo de procedimientos ecientes para encontrar buenas so-luciones. Estos metodos, en los que la rapidez del proceso es tan importante comolacalidaddelasolucionobtenida,sedenominanheursticosoaproximados.En los ultimos a nos se haacu nado eltermino metaheurstico,introducido porFred Glover en 1986 y apoyado por diferentes eventos cientcos de caracter inter-nacional, comoel congresoMetaheuristicInternational Conference, olarevistaJournal of Heuristics. El terminometaheursticoestableceunadiferenciacon-ceptual entreel conjuntodereglas quepermitendise nar unprocedimientoderesolucionheursticoyel propioprocedimientoderesolucion. Enestesentidoelprejo meta indica un mayor nivel de abstraccion, en cuanto que las propias reglas,denominadasprocedimientometaheurstico,noest anligadasaning unproblemaespecco.Unab usquedaeninternet puede darnos unamedidadel grandesarrolloeimpactoqueest anteniendoestosmetodos. Podemosconsiderarunadelasme-todologas mas populares, los algoritmos geneticos, para realizar unaprueba sen-cilla. Utilizandoel conocidomotordeb usquedaGooglesobreel literal geneticalgorithmsoptimization,obtenemosmasdeunmillondep aginasrelacionadas.Esta misma b usqueda proporcionaba apenas 120.000 resultados hace cuatro a nos.Este simple ejercicio nos muestra eldesarrollo extraordinario delos procedimien-Rect@ Monogr aco 3(2007)viiiINDICEGENERALtosheursticosenestos ultimosa nos.El desarrollode los metodos heursticos es tal, incluyendolaaparici ondenuevas metodologas casi a diario, que excede de las posibilidades de este volumenel ofrecerunarevisionexhaustivadetodosellos. Amododecat alogo,podemosenumerarcomolosmasestablecidoslosqueguranenlasiguientelistacon15metodos(mantenemoslaacepcioneninglesyelacr onimo): EstimationDistributionAlgorithms(EDA) Evolutionary Algorithms(EA) FuzzyAdaptiveNeighborhoodSearch(FANS) GeneticAlgorithms(GA) GreedyRandomizedAdaptiveSearchProcedure(GRASP) GuidedLocalSearch(GLS) HeuristicConcentration(HC) MemeticAlgorithms(MA) Multi-ObjectiveSearch(MOS) Multi-StartMethods(MSM) PathRelinking(PR) ScatterSearch(SS) SimulatedAnnealing(SA) TabuSearch(TS) VariableNeighborhoodSearch(VNS)En este volumen proponemos una revision de algunos de los principales proce-dimientosmetaheursticos. Comenzandoconunaintroduccionalaoptimizacionengeneral ylosdiferentesenfoquesderesolucion, pasamosdespuesarevisarlab usquedatab u,losmetodosGRASP,laprogramacionmultiobjetivo,losalgorit-mos memeticos y la b usqueda multiarranque. Finalmente terminamos con algunasaplicacionesdeestasmetodologas.Esperamosqueencontreisestarecopilacioninteresanteyosanimeaentraroaproseguirenelfascinantemundodelaoptimizacionheurstica.Valencia,abrilde2007EnricCrespo, RafaelMart, JoaqunPachecoCoordinadoresRect@ Monogr aco 3(2007)PrimeraparteIntroduccion1IntroduccionalosmetaheursticosM.LagunaayC.DelgadobaUniversityofColorado, Boulder,LeedsSchoolofBusinessbUniversidaddeBurgos,DepartamentodeeconomaAplicada(MetodosCuantitativosparalaEconoma)1 ProblemasdeoptimizaciondifcilesOptimizarestratardeencontrarlamejorsolucionposibleparaundetermi-nadoproblema. Entodoprocesodeoptimizacionexistendiferentessolucionesyuncriterioparadiscriminarentreellas. Tratamosdeencontrarel valordeunasvariablesdenominadasvariablesdedecisionparalosquelafunci onobjetivoal-canzasuvalor optimo. El valor dedichas variables sueleestar sujetoaunasrestricciones.Podemos encontrar unagrancantidaddeproblemas deoptimizacionenlaindustria, enlaempresa, enlaeconoma, enlaciencia, . . . Comoejemplosdeproblemastpicosdeoptimizaciontenemoslosdelocalizacion(deserviciosoac-tividadespeligrosas),losdeasignacion(depersonasalugaresdetrabajoosimi-lares),losdeconfecciondecalendarios(dehorarios,deturnosdetrabajo...),losproblemas de circuitos y de distribuci on en planta, los de partici on o cubrimientodeunconjunto(instalaciondeagenciasdeserviciosquecubranunazonadeter-minada),losderutasdevehculos... yotrosmasactualescomoporejemplolosdeingenierayre-ingeniara desoftware.*Losautoresdeestetrabajoagradecenlaayudadel MinisteriodeEducaci onyCienciaporlasubvenci onecon omicaparalarealizaci ondeestetrabajoatravesdelPlanNacionaldeI+D,(ProyectoSEJ- 200508923/ECON), as comoalaJuntadeCastillayLe on(ConsejeradeEducaci onProjectBU008A06).Rect@ Monogr aco 3(2007)4 IntroduccionalosmetaheursticosAlgunos deestosproblemas son relativamente facilesderesolver mediantedi-ferentesmetodoscontrastados. Esteeselcasodelosproblemaslinealesparalosqueen1947Dantzigelaborounmetododeresoluciondenominadometododelsimplex. Sinembargolamayoradelosproblemasdeoptimizacionquepode-mosencontrarenlapracticanoseresuelventanfacilmente. Esteesel casodelosproblemasdeoptimizacioncombinatoria,optimizaci onnolineal envariablescontinuas, optimizacion multiobjetivo yoptimizacion desimulaciones, problemasquesecomentanacontinuacion.1.1 OptimizacionCombinatoriayConceptoNPDentrodelosproblemasdeoptimizacionsonmuyfrecuentesaquellosenlosquelasvariablessolopuedentomarvaloresdiscretos,enterosoinclusobinarios.Enestoscasosdiremosqueestamosanteproblemasdeoptimizaciondiscretayque,engeneral, sepuedenformular comoproblemas deoptimizacion combinato-ria,expresionenlacualpodemosincluirlamayora delosproblemasquetienenunn umeronitoonumerabledesolucionesalternativas.Masconcretamente,unproblemadeoptimizacioncombinatoriaest adenidoporunconjuntodesolucionesfactiblesS(habitualmentemuynumeroso),yunafunci onf: S R. Generalmenteserepresentancomo:Minimizar(omaximizar) f(s)sujetoa: s S.La importancia de los modelos de optimizacion combinatoria, ademas del grann umerodeaplicaciones, estribaenquecontienelos dos elementos quehacenatractivo unproblema a los cientcos: planteamiento sencillo y dicultadderesoluci on,(Garnkel,(1985)).ResolverunproblemadeOptimizaci onCombinatoria, seg unPapadimitriouySteiglitz(1982, p. 2), consisteenencontrar lamejor soluci onosoluci on optima entreunconjuntonitoonumerabledesoluciones alternativas facti-bles. Sehaempleadomuchoesfuerzoeninvestigarydesarrollarmetodosparaobtener soluciones optimas o aproximadas en problemas de Optimizaci on Combi-natoria: unos basados en Programacion Entera, Lineal o No Lineal, ProgramacionDin amica,etc. EnlostrabajosdeLawler(1976),Lawler,Lenstra,RinnooyKanandShmoys (1985) odeSchrijver (1986) serealizan revisiones historicas deldes-arrollo delosdiferentesmetodosdesolucion.Alolargodelosa nossehademostradoquemuchosproblemasdeoptimi-zacioncombinatoriapertenecenalaclasedeProblemasNP-completos,esdecir,lasolucionoptimaseobtieneutilizandoalgoritmosqueempleanuntiempodecomputacionquecrecedeformasuperpolinomial(normalmenteexponencial)enel tama nodel problema. Porconsiguiente, enmuchoscasos, lasolucionoptimanosepuedeobtenerenuntiemporazonable(unagranvariedaddeestetipodeproblemassepuedevereneltrabajodeGareyandJohnson(1979)).Rect@ Monogr aco 3(2007)M.Laguna,C.Delgado 51.2 OptimizacionNoLineal enVariablesContinuasEstamos ante problemas de Optimizaci on NoLineal cuando las funciones querepresentanlafunci onobjetivoylasrestriccionesnosonsiemprelinealesylosvalores de las variables, valores nonegativos, est ansujetos aunconjuntoderestricciones dedesigualdad;estoes:Max f(x)s.a. g(x) bx 0Enel casode que las funciones F ygiseancontinuamente diferenciablesel TeoremadeKuhn-Tuckernos permiteobtener las condiciones necesariasdeoptimo. Basicamente,estascondiciones establecenqueelgradiente delafunci onobjetivoenxparaqueseasolucionoptima, debepoderseexpresarcomounacombinaci onlineal nonegativadelos gradientesdelas restriccionessaturadasendichopunto. LascondicionesdeKuhn-Tuckersoncondicionesnecesariasysucientesdeoptimolocalsoloparaprogramas convexos.Parageneralizarlas condiciones deKuhn-Tucker aProgramasNoDiferen-ciableshasidonecesariodesarrollarotrascondicionesdeoptimalidad, comolascondicionesdepuntodesillalagrangiano. Talescondicionessonnecesariasparacasi cualquier programa matematico, y al igual que en el caso anterior son tambiensucientessolosidichoprograma esconvexo. Cuandoelprograma esdiferencia-ble, estas condicionesmas generales, comoes deesperar, coincidenconlas deKuhn-Tucker.1.3 OptimizacionMultiobjetivoEn la practica real se da con frecuencia el caso de m ultiples objetivos o criteriosquesepretendenoptimizarosatisfacersimult aneamente,porloqueusualmenteentranenconicto; dichodeotramanera, cuandonosaproximamosal optimodeunobjetivo,nosalejamosdelmismoparaotroobjetivo. ElestudioyanalisisdeestassituacioneshadadoorigenatecnicasquesedenominanProgramacionMultiobjetivo.Todoslosautoresquetratanestascuestionesreconocencomoprimerantece-dente, desde un punto de vista conceptual, la aportacion conocida como optimo dePareto, debidaa dicho autor en1896, como unaparte delaTeora delBienestar.Sin embargo, esta idea de optimo, tena un car acter fundamentalmente teorico sinaplicacion practica en la toma de decisiones. Es con la obra de Charnes y Cooper(1961), cuando realmente comienza eldesarrollo delas tecnicas deProgramacionMultiobjetivo, enconcreto, conel metodoespiral yel metododeprogramacionporobjetivos. Apartirde1972, a noenquesecelebralaPrimeraConferenciaInternacional sobre la toma de Decisiones Multicriterio, Cochrane y Zeleny (Eds.)Rect@ Monogr aco 3(2007)6 Introduccionalosmetaheursticos(1973), tanto las reuniones cientcas sobre la materia, como las publicaciones enrevistasespecializadas,nohandejadodeproducirsehastanuestrosdas.Elplanteamientomasgeneraldelproblemaeselsiguiente:maxxFi(x) i = 1, 2, . . . , kx Sdondexes unvectordencomponentesquesonlas variablesalasquedesig-naremosconel terminoinstrumentos; Sesel conjuntodeoportunidadesykesel n umerodeobjetivos quedeseamosmaximizaryquevienenreejadosenlasfuncionesF.En cuanto al proceso de decision multicriterio, existen varios modelos, quiza elmas conocido sea el de Chakong y Haimes, que distingue una fase de iniciacion, laformulaci on del problema, modelizacion, analisis y evaluacion, e implementacion.La caracterstica deestos modelos esquetanto enlasfases deformulaci on, comodeevaluacion,intervienenfrecuentementeelementossubjetivos.Entre los m ultiples criterios que pueden darse a la hora de clasicar las tecnicasmultiobjetivo, escogemos la que hace referencia a la relacion entre el analista y eldecisor;seg unseaesarelacionseoriginandistintastecnicasdesolucion:1. Tecnicas generadoras: Se generanunconjuntode alternativas ecientessiendoelujodeinformaciondelanalistaaldecisor.2. Tecnicasconinformacionapriori: Ladirecci ondelainformaciones deldecisoralanalista;lamasconocidaeslaProgramaci onporObjetivos.3. Tecnicasinteractivas: Elujodeinformacionvaenambasdirecciones.Entre los algoritmos de resolucionlos mas sencillos sonlos basados enlarepresentaciondelasmetasm ultiplesmedianteunasolafunci onobjetivo. Enelmetododeponderaci on,seformaunasolafunci onobjetivocomolasumadelosvalores asignados delasfuncionesquerepresentan las metasdelproblema. Enelmetodoporprioridadesseempiezapordeterminarlasprioridadesdelasmetasen orden de importancia; el modelo es entonces optimizado utilizando una meta ala vez yde talmanera queelvalor optimode unametade prioridad mas elevadanosedegradeporunametadeprioridadmasbaja.Rect@ Monogr aco 3(2007)M.Laguna,C.Delgado 71.4 OptimizaciondeSimulacionesLa simulaci on es una tecnica que ense na a construir el modelo de una situaci onrealpermitiendonosasuvezlarealizaci ondeexperimentosconesemodelo.En concreto simulaci onesuna tecnicanumericaparaconducirexperimentosenunacomputadoradigital, loscualesrequierenciertostiposdemodelosl ogicosymatem aticos, quedescribenel comportamientodeunnegocioodeotrostiposdesistemasenperiodosextensosdetiempo(Nayloryotros,1982).Lautilizaci ondemodelosdesimulaci onhasidounatecnicamuyempleadaparaaproximarnosaproblemasmuycomplicadosdetrataranalticamente. Enlos modelos de simulaci on, habitualmente, no se puede obtener la funci on objetivoenfunci ondelasvariablesopar ametrosdeentradadeformaexplcitamedianteuna formula cerrada. La falta de una funci on objetivo de forma explcita que rela-cione el objetivo (costes, tiempos) a optimizar con los par ametros de entrada hacequeseanecesarioejecutarlasimulaci onparacadacombinaci ondepar ametros;apococomplejoqueseael problemael n umerodecombinaciones posibles delospar ametrospuedeserelevadoyeltiempodecomputacionexcesivo. Ademassi, comosuelepasarenmuchoscasos, existencomponentesaleatoriosenel mo-delo, entoncessedebereplicarvariasveceslasimulaci onparaobtenerunaesti-maci onaproximada delafunci onobjetivo,loquesuponeunincrementonotabledeltiempodecomputacion.La optimizacion de simulaciones es una tecnica que trata de buscar los valoresoptimos ocercanos al optimode los par ametros de entrada. Estatecnicaesrelativamente nueva, y a pesar de los inconvenientes de su implementacion, parecequetendraunimpactoconsiderableenlapracticadelasimulaci onenelfuturo,particularmentecuandolosordenadores lleguenasermasrapidos.2 EnfoquesBasicosdeSolucionComoyasehacomentadomuchosproblemasdeOptimizaci onCombinatoriapertenecenalaclasedeProblemasNP-Hard,esdecir,paraencontrareloptimonecesitanuntiempodecomputacionquecrecedeforma(al menos)exponencialenel tama nodel problema. Enestoscasosdebemosdecidirentreencontrarlasolucionoptimaacostadeemplearuntiempodecomputaci onmuyelevadooencontrar unabuenasolucionenuntiempodecomputacionrazonable.EnelprimercasosehandeutilizaralgoritmosOptimosoExactos,mientrasqueenel segundoseutilizaranalgoritmosdeAproximacionoHeursticos,comolosdeb usquedalocal,algoritmosconstructivos,b usquedaincompleta,etc.Porotroladoexistensituacionesenlasquepuedeserconvenienteencontrarunabuenasolucionenlugar de lamejor de ellas. Las mas evidentes sonlassiguientes:Rect@ Monogr aco 3(2007)8 Introduccionalosmetaheursticos Enmuchosproblemasrealeslosdatosnosonexactossinosolounabuenaaproximacion. Esevidentequeinsistiraqu enuncostosoprocedimientoexactocarecedesentido. Existenmodelos, muyfrecuentemente, enlos cuales es imposible incluirtodaslasconsideracionesqueafectanal problemayaquealgunasdeellassondifcilmenteobjetivizablesymodelizables. Enestoscasosmasqueunasolucion exacta loque necesitaeldecisor sonvarias buenassoluciones entrelasqueoptarenfunci ondesuspropioscriterios. Cuando hayque tomar decisiones entiempo real, casode automatas oprogramacionesdetrabajosobrelamarcha, loqueinteresaesunabuenadecisionperoinmediata.Todos estos casos justicanlautilizaci ondemetodos aproximadossi estosroporcionanbuenassolucionesenuntiemporazonable. Porlogeneral losalgo-ritmosheursticostienenlaventajaa nadidadequepuedensermasfacilmenteadaptablesparasolucionarmodelosmascomplejos. Hayquese nalarquelosdi-ferentestiposdealgoritmosdependendecadaproblemaconcreto, yaqueensudise noseintentanaprovechar lascaractersticas especcasdedichosproblemas.2.1 MetodosExactosComoyasehacomentadopermitenencontrarlasolucionoptimaaunpro-blema. Laenumeraci onexplcitadetodoel conjuntodesoluciones,aunqueesteacotado, suele ser excesiva, yaque este puede ser de grantama noinclusoenproblemasconpocasvariables;portantoseaplicanmetodosqueabreviandichab usqueda. Lamayoradelosalgoritmosest anbasadosenprocesosdeRami-caci onyAcotamiento(Branch&Bound)consistentesenlosiguiente: Inicialmente,partirdelconjuntodetodaslassoluciones;dividirdichocon-juntoendossubconjuntosoramas;calcularyasignarparacadaramaunacotainferior, si estamosminimizando(superiorsi estamosmaximizando),delvalordelafunci onobjetivoeneseconjuntodesoluciones. Elegirunadelasramasosubconjuntosseg unalg uncriterioyrealizardenuevoel pasoanterior. Repetiresteprocesohastallegarauna unicaso-lucion. Continuar el proceso en las ramas que queden sin explorar si la cota inferiorasociadaesmenorqueel valordelamejorsolucionencontradahastaesemomento. Deestaformaseevitarealizarexploraciones innecesarias.Los criterios de ramicaci on y eleccion de la siguiente rama o subconjunto quese explora, y la forma de determinar las cotas, dependen de la estructura y carac-tersticas propias de cada problema concreto, y son importantes para aumentar laRect@ Monogr aco 3(2007)M.Laguna,C.Delgado 9ecaciadeestosalgoritmos. Elvalordelasoluciondelarelajaci oncontinuadelproblema,enelconjuntodesolucionescorrespondiente,seutilizahabitualmentecomocotainferior. Losconjuntosdesolucionessedividenseg unlosvaloresdeunadeterminadavariable, yseeligecomonuevaramaaexplorarlademenorcotainferior.Menos ecientees laresolucionusandoexclusivamentetecnicas deProgra-maci onDin amica, sinembargoestas puedenser utiles para hallar cotas quedespuesseanintroducidasenalgoritmosdetipoBranch&Bound.Otrosmetodosdesarrolladossonel algoritmodePlanodeCortedeGomory,muyaceptadoparadeterminadosproblemasoeldeDescomposici ondeBenders.Veamos como funciona elprimero de ellos. Aligual queen los procesos de Rami-cacion y Acotamiento en el algoritmo de Plano de Corte de Gomory se utiliza lasolucion continua optima de PL. En este caso se modica el espacio de la soluciona nadiendo sucesivamente restricciones especialmente construidas llamadas cortes.Enlatablaoptimadelsimplexdelproblemarelajadosea nadeelcortegeneradoa partir de un rengl on elegido de forma arbitraria, de entre aquellos cuya variablenoesentera. Apartirdedichatablasecalculalasolucion optimafactible, yserepiteelprocesohastaquetodaslasvariablesseanenteras.Laideagraca delalgoritmo dePlanodeCortedeGomory semuestra enlasguras1y2. Loscortesa nadidosnoeliminanningunodelospuntosfactiblesperodebenatravesar porlomenosunpuntoenterofactibleonofactible.Max 7x1 + 10x2s.a-x1 + 3x2 67x1 + x235x1y x2 0 y enteras(45, 35)Fig. 1Formulaci ondelproblemaysolucionconsiderando variablescontnuas(457, 3)(4, 3)Fig. 2Cortesrealizados ysolucionasociadaencadacasoRect@ Monogr aco 3(2007)10 IntroduccionalosmetaheursticosEncualquiercaso, el tiempodecomputacionutilizado, sueleser alto. Porestaraz onsedamuchaimportancia,especialmenteenproblemascombinatorios,al dise no y uso de algoritmos heursticos, esto es, algoritmos que no garantizan laobtencion delasolucion optima,pero s unabuena solucion enuntiempomuchomenor.2.2 HeursticosdeConstruccionExisten diferentes tipos de heursticos, seg un el modo en que buscan y constru-yen sus soluciones. En los heursticos de construcci on se van a nadiendo paulatina-mentecomponentesindividualesalasolucion,hastaqueseobtieneunasolucionfactible.El maspopulardeestosmetodosloconstituyenlosalgoritmosgolososode-voradores (greedy), que construyenla solucionseleccionandoencadapasolamejor opcion. Otras versiones escogendeformatotalmentealeatoriaencadapasoel componentequesea nadiraalasolucion. Lasversionesqueengeneralhandemostradodarmejoresresultadossonlasqueintroducensolociertogradodealeatoriedad: primeroseleccionanunconjuntodebuenasopciones;posterior-mente escogen el siguiente componente de la solucion de forma aleatoria en dichoconjunto.2.3 B usquedaLocalDentrodelosmetodosaproximadossondeusomuyfrecuenteenlaoptimi-zacion combinatoria los metodos de B usqueda Local. Dichos metodos se basan enla idea de explorar las soluciones vecinas de aquella que tenemos en un momentodado. Portantoparadise narunprocedimientodeb usquedalocal, esnecesariopreviamentedenirunvencidariooentornoN(s), s S,esdecir:N(s) = Conjuntodesolucionesvecinasdes(alasquesellegaporunpeque nomovimientoocambioens)Se tratasencillamente de pasar de unasolucionaotravecinaque seamejor.El procesoseacabacuandonohaymejoraposibleenel conjuntodesolucionesvecinas. Estastecnicaspuedensermassencillasomassosticadasdependiendodelaestructuravecinalquesedena.Elsiguienteprocedimientodescribeesteproceso:Seleccionarunasolucioninicials0 S.RepetirSeleccionars N(s0)talquef(s) < f(s0)porunmetodopreestablecidoReemplazars0porshastaquef(s) f(s0),s N(s0).Rect@ Monogr aco 3(2007)M.Laguna,C.Delgado 11Las formas masusuales de seleccionar la solucion vecina son explorar entodoel vecindarioytomar lamejor solucionseg unel valor de lafunci onobjetivo(mayordescenso), o buscar y seleccionar la primera que mejora la solucion actual(primerdescenso).Elinconvenientedeestaestrategiasiempredescendenteesqueenlamayoradelos casos seconvergen a mnimos localesqueno songlobales, yademas suelenestar muylejos del optimoglobal. Parailustrar esteproblemaconsidereselasiguientegraca:Fig. 3EjemplodeestrategiadescendenteEnestagurasemuestraunsencilloejemplodeunafunci onenlaqueparacadasolucionseconsiderandossolucionesvecinas, representadaspor el puntoquetienealaizquierdayel quetienealaderecha. Unaestrategiadescendentesiempresedirigehaciael fondodel vallequecontieneal puntodesalida. Porejemplo,silasolucioninicialesP,siempresenalizar aenelpuntoQ.Para evitar este problema, se han sugerido algunas posibles soluciones: repetirel algoritmocondiferentes puntos de partida, oaumentar el vecindario. Pordesgracia, ninguna de estas variantes ha resultado ser totalmente satisfactoria. Enla gura anterior se observa que para evitar que la b usqueda se quede atrapada enmnimoslocalesdemalacalidad,sedeberapermitiralgunosmovimientoshaciaarriba, deformacontrolada, aunqueempeorenmoment aneamenteel valordelasolucion actual. De esta forma se podran visitar optimos locales de mejor calidadeinclusoeloptimoglobal.Endenitivalab usquedalocal, comotal, esunab usquedaciegayaqueel unicocriterioparaaceptar unasoluciones quereduzcael valor delafunci onobjetivo. Portantonoutilizaningunainformacionrecogida durantelaejecuci ondelalgoritmoydependedeunamaneramuyestrechadelasolucioninicialydelmecanismo de generaci on de entornos. Para evitar quedar atrapado en un optimolocalypodercontinuarbuscandosolucionesmejoresentodoelespacioesporloquesehancreadodiversasestrategias incluidasenlosmetaheursticos.Rect@ Monogr aco 3(2007)12 Introduccionalosmetaheursticos3 MetaheursticosLosmetaheursticossonel desarrollomasreciente, entrelosmetodosapro-ximados, pararesolvercomplejos problemasdeoptimizaci oncombinatoriaqueaparecenenlaempresa, laeconoma, laindustria, laingenieraymuchasotrasareas. Sehandesarrolladovertiginosamentedesdeprincipiosdelos80parare-solverunagamamuyvariadadeproblemas.UnadeniciondeMetaheursticodadapor OsmanyKelly(1996) es lasi-guiente:Unmetaheurstico es unprocedimiento iterativo, conunaestruc-turay unareglas generales de funcionamiento que locaracterizan,queguaunmetodo(normalmenteunheurstico)subordinadocombi-nandointeligentementediversosconceptosparaexplorarlosespaciosdeb usquedautilizandoestrategiasaprendidasparaconseguirsolucio-nesquasi- optimasdemaneraeciente.Seg unGloveryLaguna(1997):Metaheursticasereereaunaestrategiamaestraqueguaymodicaotras heursticas paraproducir soluciones m as all ade aquellas quenormalmentesegeneranenunab usquedade optimoslocales.Utilizanconceptosderivadosdelainteligenciaarticial, labiologa, lasma-tematicas... para mejorar su ecacia. En general, tratan de explotar una colecci ondeideassensatasparairmejorandolacalidaddelassoluciones.Sonprocedimientositerativosquedisponendemecanismosdeparadajadosporel usuariocomopuedenserlacantidaddeiteracionesefectuadas,el n umerodeiteraciones sinmejorar ohaberseacercadosucientementeal optimo(si sedisponedeunacotadelmismo),etc. Loscriteriosdeparadasonabsolutamentenecesarios en este tipo de procedimientos ya que contin uan la exploraci on despuesdehaberobtenidounoptimolocal,ysinelloselprocesoseriainterminable.Aunqueesposibleencontrarconvergenciasteoricasaloptimoglobalparaal-gunos metaheursticos bajo determinadas hipotesis, estas hipotesis no se vericanenlamayoradelasaplicacionespracticas. Portanto, aunquepierdenlaposi-bilidaddegarantizar soluciones optimas,losmetaheursticos hanobtenido exitosalahoradeconseguirbuenassolucionesenunaampliagamadeaplicacionesenmuydiversasareas.Ademas tienen otra gran ventaja. Dada la sencillez de sus elementos b asicos ylaimportanciadesusaspectosintuitivospuedenserimplementadosyutilizadosporpersonassinunaformaci onespeccaenmatematicasdealtonivel. Aunquehayquetenerencuentaqueamayorconocimientodetecnicasdeinvestigacionoperativa,mayorcapacidadderecursosparaabordarlosproblemas.Rect@ Monogr aco 3(2007)M.Laguna,C.Delgado 13Alahoradedescribirunmetaheurstico lascaractersticas principalesquesehandecomentarsonlassiguientes: Algoritmosdeterminsticos Algoritmosaleatorios Usodememoria Algoritmospoblacionales Usodemovimientosporentornos Basadosenprocesosfsicos,biologicos, inteligenciaarticial,..Tradicionalmente, dosdeestascaractersticassesolanutilizarparadividirlosmetaheursticos,engeneral,endosgrandesgrupos: metaheursticosbasadosenPoblacionoAlgoritmosEvolutivos, ymetaheursticosbasadosenB usquedaporEntornos. Sinembargoenlaactualidadlamayoradelosmetodosqueseimplementanhoyendasonhbridos,deformaquelosmetodosbasadosenpo-blacionesincluyenb usquedaslocalesquepordenicionserealizanpormediodeentornos. Enlosdospuntossiguientes(3.2y3.3)secomentasufuncionamientoyseexplicanalgunosdeestosmetaheursticos.Tambien se puede hablar de metodos que utilizan decisiones sistem aticas (mu-chasvecesbasadosenmemoria)ymetodosbasadosendecisionesaleatorias. Aligual que en el caso anterior es difcil encontrar implementaciones puras ya quela mayora de los procedimientos incluyen ambos tipos de estrategias (sistematicasyaleatoriasopseudosaleatorias). Enel punto3.4seestudiael funcionamientob asicodetresmetaheursticosbasadosenmuestreoaleatorio. Enestecaso, noscentramosenmetaheursticosquenoutilizanmemoria. Sus decisionessonto-dasal azarsintenerencuentalascaractersticasdel problemaquetrataolosresultadosobtenidosconanterioridad.Recientemente se handesarrolladoestrategias heursticas que eligenentreheursticospararesolverproblemasdeoptimizacion. Estosmetodossedenomi-nan hiperheursticosy su objetivo principal es el de dise nar estrategias de progra-maci on generales que puedan ser aplicadas a diferentes problemas. Habitualmentelosalgoritmosmetaheursticossuelenfuncionarbienparalosproblemasparalosquesehandise nado, peronoparatodotipodeproblemas. Cuandosepreten-denaplicar auntipodeproblema diferentehayquerealizar modicaciones enelmetodo,amenudonumerosasycostosas. Enelcasodeloshiperheursticosestono sera necesario. Otra caracterstica propia de los hiperheursticos es que mien-tras un metaheurstico modica las soluciones directamente, un hiperheurstico lohace indirectamente, por medio de un operador (un heurstico de bajo nivel). Porsupuesto los hiperheursticos pueden ser metaheursticos y de hecho normalmenteloson.Rect@ Monogr aco 3(2007)14 Introduccionalosmetaheursticos3.1 MetodosBasadosenB usquedaporEntornosLa B usquedaporEntornos trata de superar los inconvenientes de la B usquedaLocal: dependencia de la solucion inicial y convergencia a mnimos locales que noson globales. Para salir deesos mnimos locales deberan permitirse movimientosque empeoren moment aneamente la solucion actual. Como se vera mas adelante,algunos metodos heursticos, permiten estos movimientos hacia arriba de formacontrolada, mejor andoseenmuchos casos el valor de lasolucionnal. Otrosrepiten el algoritmo con diferentes puntos de partida o consideran una estructuravecinalmascompleja(modicanelvecindario).TabuSearch(TS)Seg un Glover F. (1996) la palabra Tabuse reere a: . . . untipodeinhibici onporconnotacionesculturaleso hist oricasque puedesersuperadoendeterminadascondiciones. . . .TabuSearch(B usquedaTab u)dadaaconocerporGloverF.(1989)y(1990-a),esunprocedimientometaheurstico utilizadoconelndeguiarunalgoritmoheursticodeb usquedalocal paraexplorarel espaciodesolucionesmasalladelasimple optimalidadlocal yobtener soluciones cercanas al optimo. Se hanpublicadonumerososartculosylibrosparadifundirel conocimientoteoricodelprocedimiento; enGloverF. yLagunaM. (1997)y(2002)puedenencontrarseampliostutorialessobreB usquedaTab uqueincluyentodotipodeaplicaciones.Al igual quelab usquedalocal, lab usquedatab uensudise nob asico, cons-tituyeunaformaagresivadeb usquedadel mejordelosmovimientosposiblesacadapaso; sinembargo, tambienpermitemovimientoshaciasolucionesdel en-tornoaunquenoseantanbuenascomolaactual,deformaquesepuedaescapardeoptimoslocalesycontinuarlab usquedadesolucionesa unmejores(vergura4).Fig. 4ProcedimientodeB usquedaTab u.Rect@ Monogr aco 3(2007)M.Laguna,C.Delgado 15Simult aneamenteparaevitarciclos, los ultimos movimientosrealizadossondeclaradostab uduranteundeterminadon umerodeiteraciones, utilizandolasdenominadasrestriccionestab u. Dichacondiciontab upuedeserignoradabajodeterminadascircunstanciasdandolugaralosllamadoscriteriosdeaspiraci on.Deestaformaseintroduceciertaexibilidadenlab usqueda.VariableNeighborhoodSearch(VNS)Variable Neighborhood Search (B usqueda en Entorno Variable) es una tecnicametaheurstica propuesta y descrita en los trabajos de Mladenovic (1995), Mlade-novic y Hansen (1997) y Hansen y Mladenovic (1998). La idea b asica es combinarla aplicacion de un procedimiento de b usqueda local con un cambio sistem atico delentornodeb usqueda. El algoritmoaplicalab usquedalocal enalgunasoluciondel entronodelamejorsolucionobtenidahastael momento(soluci onactual).Si noseconsiguemejorarestasolucionactual seconsideraunentornomayor.Cuandoseobtieneunasolucionmejorsereiniciaelproceso. Intentaexplotarlaideadequelosmnimoslocalestiendenaconcentrarseenunaspocasregiones.UntutorialmasrecientesseencuentranenHansenyMladenovic(2003).3.2 MetodosBasadosenPoblacionesLos Algoritmos Evolutivos oalgoritmos basados enpoblaciones seinspiranenlosprincipios b asicosdelaevoluci ondelosseres vivos, ymodicandichosprincipiosparaobtenersistemasecientesparalaresoluciondediferentespro-blemas. UnAlgoritmoEvolutivoesunprocesoestoc asticoeiterativoqueoperasobre unconjunto P de individuosque constituyen lo que se denomina poblaci on;cadaindividuocontieneunoomascromosomas quelepermitenrepresentarunaposiblesolucional problema, lacual seobtienegraciasaunprocesodecodi-cacion/decodicacion. Lapoblacioninicial esgeneradaaleatoriamenteoconlaayudadealg unheursticodeconstrucci on. Cadaindividuoesevaluadoatravesde una funci on de adecuacion (tness). Estas evaluaciones se usan para predispo-nerlaselecci ondecromosomasdeformaquelossuperiores(aquellosconmayorevaluacion) sereproduzcanmasamenudoquelosinferiores.El algoritmoseestructuraentresfasesprincipalesqueserepitendeformaiterativa, lo que constituye el cicloreproductivob asico o generaci on. Dichas fasesson: selecci on,reproduccionyreemplazo.GeneticAlgorithms(GA)Anales de los 60yprincipios de los 70distintos investigadores trataronde trasladar los principios de la Evoluci onal campo de laalgoritmia, dandolugar a lo que tradicionalmente se conoca como EvolutionaryComputation y queahorasellamaEvolutionaryAlgorithms. ComoresultadodeestainvestigacionRect@ Monogr aco 3(2007)16 Introduccionalosmetaheursticosseoriginarondiferentesmodelosquepuedenagruparseentresgrandesfamilias:Evolutionary Programming (Programaci onEvolutiva),EvolutionsStrategies (EE,EstrategiasdeEvoluci on)yGeneticAlgorithms(GA,AlgoritmosGeneticos).Filosocamentelos tres metodos solodierenenel nivel dedetalleenquesimulanlaevoluci on. Anivel algortmicodierenenlaformaenquerepresen-tanlassoluciones ylosoperadores queusanparamodicarlas. LaProgramaci onEvolutivatienesuorigenenel trabajodeFogel L.J. yotros(1966),yponenunespecial enfasis en la adaptacion de los individuos mas que en la evoluci on del ma-terial genetico de estos. LasEstrategiasdeEvoluci oncomenzaron a desarrollarseenAlemania. Suobjetivoinicial eraservirdeherramientaparalaoptimizaciondepar ametrosenproblemasdeingeniera. AligualquelaProgramacionEvolu-tivaconlaquesehallaestrechamenteemparentada, basasufuncionamientoenelempleodeunoperadordereproduccionasexualodemutacion,especialmentedise nado para trabajar con n umeros reales. En cuanto a los Algoritmos Geneticossonprobablementeelrepresentantemasconocidodelosalgoritmosevolutivos,yaquellos cuyo uso est a mas extendido. Fueron concebidas originalmente por JohnHollandydescritasenelyaclasicoAdaptationinNaturalandArticialSystems(Holland J. (1975)). Funcionan mediante la creacion en una computadora, de unapoblacion de individuos representados por los cromosomas, que son en esencia unconjuntodecadenasdecaracteres analogos aloscromosomas decuatrobasesdenuestroADN.Historicamente, el terminoevolutivosehaasociadoconalgoritmosqueusa-bansolamenteselecci onymutacion, mientras queel terminogeneticohasidoasociadoaalgoritmos que usanselecci on, mutacion, cruce yunavariedaddeotrosmecanismosinspiradosenlanaturaleza(GoldbergD.E. (1994)). Laprin-cipal caractersticadelosGAsesel usodel operadorderecombinaci onocrucecomomecanismoprincipaldeb usqueda: construyedescendientesqueposeenca-ractersticasdelos cromosomasquesecruzan. Suutilidadvienedadapor lasuposicion de que diferentes partes de la solucion optima pueden ser descubiertasindependientemente y luego ser combinadas para formar mejores soluciones. Adi-cionalmente se emplea un operador de mutacion cuyo uso se considera importantecomoresponsabledelmantenimientodeladiversidad.LapremisaquegualosGAsesquepuedenresolverseproblemascomplejossimulandolaevoluci onenunalgoritmoprogramadopor ordenador. Lacon-cepciondeJohnHollandesqueestoocurremediantealgoritmosquemanipulanstringsbinariosllamadoscromosomas. Comoenlaevoluci onbiologica, laevo-lucionsimuladatieneelobjetivodeencontrarbuenoscromosomas medianteunamanipulaci on ciega desus contenidos. El termino ciego sereere al hecho dequeelprocesonotieneinformacionsobreelproblemaqueintentaresolver.Losprimerosdise nosdeHollandfueronsimples, peroprobaronserefectivosparasolucionarproblemasconsideradosdifcilesenaquel tiempo. El campodelosGAssehadesarrollado desdeentonces,principalmentecomoresultadodelasRect@ Monogr aco 3(2007)M.Laguna,C.Delgado 17innovacionesen1980al incorporarmasdise noselaboradosconel prop ositoderesolver problemasenunampliorangodeescenarios practicos.LoscomponentesquehandeconsiderarsealahoradeimplementarunGAsonlossiguientes: Unarepresentacion, enterminosdecromosomas, delasconguracionesdecada problema: metododecodicaciondelespacio desoluciones encro-mosomas. Unamaneradecrearlasconguraciones delapoblacioninicial. Una funci onde evaluacion que permita ordenar los cromosomas de acuerdoconlafunci onobjetivo: medidadelabondadofunci ontness. Operadores geneticos quepermitanalterar lacomposiciondelos nuevoscromosomas generadosporlospadresdurantelareproducci on. Valores de los par ametros que el algoritmo geneticousa (tama no de lapoblacion, probabilidades asociadas con la aplicacionde los operadoresgeneticos).ScatterSearch(SS)ScatterSearch(B usquedaDispersa)secaracterizaporel usodeunconjuntodesoluciones, denominadoConjuntodeReferencia, queesactualizadoduranteelproceso. El modoenel quecombinasolucionesyactualizael conjuntodeso-lucionesdereferenciausadasparacombinarconjuntos, apartaestametodologadeotros enfoques basados enpoblacion. Quiz as el metodomas cercanoaSSdentrodel areadeEvolutionaryAlgorithmsesEvolutionStrategiesyaquedi-chos metodos utilizan un esquema determinista de seleccion y una representaciondesolucionesqueesnatural al problemaenlugardelarepresentaciongeneticaparacadaindividuo. Estasestrategias,encontrasteconlosGAs,nosimulanlaevoluci onalnivelgenetico.ComosecomentaenlostrabajosdeGloverF. (1998)yCamposV. yotros(2001)el enfoquedecombinaci ondesolucionesparacrearnuevassolucionesseorigino enlos 60. La estrategia combinatoria sedise n o conla conanza deque lainformacion sera explotada mas efectivamente de forma integrada que tratandolaaisladamente (Crowston W.B. y otros (1963); Fisher H. y Thompson G.L. (1963)).ScatterSearchoperaenunconjuntodereferencia(referenceset,RS)combi-nandosolucionesparacrearunasnuevas. Elconjuntodereferenciapuedeevolu-cionarcomoseilustraenlagura5, cuandosecreannuevassolucionesdeunacombinaci onlinealdeotrasdosomassoluciones. Estaguraasumequeelcon-juntodereferenciaoriginal desoluciones constadeloscrculos etiquetadoscomoA,ByC. Despues,unacombinaci onnoconvexadelassolucionesdereferenciaAyBcrealasolucion1. Enconcretosecreanunn umerodesolucionesenelsegmentodenidoporAyB; sinembargosololasolucion1seintroduceenelRect@ Monogr aco 3(2007)18 Introduccionalosmetaheursticosconjunto de referencia. De modo similar, las combinaciones convexas y no conve-xas del conjunto de referencia original y la solucion recien creada, crea los puntos2,3y4. Elconjuntodereferenciacompletomostradoendichaguraconstade7soluciones.C12AB34Fig. 5ConjuntodeReferencia(tomadodeLagunaM.(2002)).Elconjuntodereferenciadesolucionesenb usquedadispersatiendeaserpe-que no, adiferenciadelapoblaciondelosalgoritmosgeneticos. Enalgoritmosgeneticosseeligenaleatoriamentedosindividuosdelapoblacionyseaplicaunmecanismodecruceocombinaci onparagenerarunoomashijos. Untama node poblaciontpicoenalgoritmos geneticos constade 100elementos, que sonprobadosaleatoriamenteparacrearcombinaciones. Encontraste,SSeligedosomaselementosdel conjuntodereferenciadeformasistem aticaconel prop ositode crear nuevas soluciones. Ya queelproceso decombinaci on considera almenostodos los pares de soluciones del conjunto de referencia, en la practica se necesitatrabajar con conjuntos depocoselementos. Normalmente elconjunto dereferen-ciaenb usquedadispersatiene20solucionesomenos. Engeneral,sielconjuntodereferencia constadebsoluciones, elprocedimientoexamina aproximadamente(3b 7)b/2combinacionesdecuatrotiposdiferentes(GloverF.(1998)). Eltipob asicoconstadecombinacionesdedossoluciones;elsiguientetipocombinatressoluciones y as seguimos con cuatro o mas soluciones dependiendo del problema.Lalimitaci ondel campodeb usquedaaungruposelectivodetipos decombi-nacion puede usarse como un mecanismo de control del n umero de combinacionesposiblesenunconjuntodereferenciadado.Las soluciones enSSnosolosepuedencombinarutilizandocombinacioneslineales. As unaextensi onnatural del metodoesutilizarPathRelinking(Re-encadenamiento de Trayectorias) para combinar soluciones. El Re-encadenamientodeTrayectoriassebasaenel hechodequeentredossolucionessepuedetrazaruncaminoquelasuna, demodoquelassolucionesendichocaminocontenganatributos delas iniciales. Para generar los caminos es necesario seleccionar movi-mientos que cumplan los siguientes objetivos: empezando por una solucion inicialx,los movimientos debenintroducir progresivamente los atributos de la solucionRect@ Monogr aco 3(2007)M.Laguna,C.Delgado 19gua x(oreducirladistancia entrelosatributosdeestassoluciones). Los pape-les de ambas soluciones son intercambiables; ademas cada solucion puede moversehacialaotracomounamaneradegenerarcombinaciones.X XFig. 6Trayectoria PathRelinking(---)consolucionmejorUtilizandoPR se genera porlo tantouncamino queunedos soluciones selec-cionadasxyxproduciendounasecuenciadesolucionesx= x(1), x(2), . . . , x(r) = x.Enestecaminoesposibleporejemploencontrar soluciones mejoresquelassolu-cionesinicial ygua(gura6)yademasestoscaminossonhabitualmentem asdirectosquelos encontradosporotrasestrategiasparaunir dichassoluciones(gura7).X XFig. 7Trayectoria PathRelinking(---)concaminomascortoParticleSwarmOptimization(PSO)PSOoriginalmentefueconcebidoparasimulardeunsistemasocial simpli-cado;sinembargo sevioqueelmodelopodaserusadocomooptimizador. PSOes unatecnica deoptimizacionestoc astica poblacional desarrollada por KennedyJ. yEberhartR. (1995), einspiradaenel comportamientodeorganismostalescomolas bandadas de p ajaros. Compartealgunas similitudes conAlgoritmosRect@ Monogr aco 3(2007)20 IntroduccionalosmetaheursticosEvolutivostalescomolosAlgoritmosGeneticos. Comienzaconunconjuntodesolucionesaleatoriasybuscalasolucionoptimaactualizandogeneraciones. SinembargoadiferenciadelosGA, PSOnoutilizaoperadoresevolutivoscomoelcruceolamutacion.PSOimitael comportamientodeunabandadadep ajarosenbuscadeali-mentos. Ungrupodep ajarosbuscacomidaenundeterminado area. Sesuponequesolohayunapiezadecomidaenelareadeb usqueda. Losp ajarosnosabend ondeseencuentralacomida, perosi sabenencadaiteraci onaquedistanciaest a. La estrategia sera seguir al p ajaro que mas cerca se encuentre de la comida.Deestaforma, lasposiblessolucionesdePSO(losp ajaros)llamadaspartculasvuelan a traves del espacio de soluciones cambiando su posicion y velocidad enfunci ondesupropiaexperienciaydelaexperienciadelasvecinas. Laveloci-daddecadapartculasevemodicadaporunaformulamuysencillaquetienedoselementos: unoqueimpulsaalapartculahacialamejorposicion(soluci onal problema)enlaqueesapartculahaestadodurantelab usquedayotroqueimpulsa a la partcula hacia la mejor posicion encontrada por todas las partculasenlab usqueda. Laimplementacionesmuysencillayaquecadapartculasolotiene que recordar cual es la mejor posicion en la que ha estado y cual es la mejorposicionencontradaportodaslaspartculas.PSOyPathRelinkingsonmuyparecidosenelaspectodequelassolucionesguas en PR juegan el mismo papel que las posiciones hacia las cuales las partculasson impulsadas en cada paso del PSO. Si lo comparamos con los GA, POS es masfacildeimplementaryhaypocospar ametros queajustar.AntColonyOptimization(ACO)Estemetodopropuestopor DorigoM. yotros(1996)es unejemplo, comoelTempleSimulado,RedesNeuronalesyotros,delafortunadousodemetaforasnaturales para dise nar un algoritmo de optimizacion. En este caso seaprecia conclaridadcomolassolucionesgeneradaspreviamenteafectanalassolucionesquesegeneranenelfuturo.Lashormigasrealessoncapacesdeencontrarelcaminomascortodesdeunafuente de comida al hormiguero sin usar se nales visuales. Tambien son capaces deadaptarse a cambios del entorno, por ejemplo, encontrando un nuevo camino mascorto cuandoelanterior yanoesfactibledebidoaunobstaculointerpuesto. Lashormigas se mueven en lnea recta que conecta la fuente de comida con su hormi-guero. El medio b asico que tienen para formar y mantener la lnea es un reguero depheromone;alcaminar depositandeterminadacantidaddeestasustanciaycadahormigapreere(probabilsticamente)seguirunadirecci onricaenpheromone.Cuando aparece de forma imprevista un obstaculo no esperado que interrumpe elcaminoinicial,aquellashormigasqueest anjustoenfrentedelobstaculonopue-dencontinuarsiguiendoel reguerodepheromone: tienenqueelegirentregirarRect@ Monogr aco 3(2007)M.Laguna,C.Delgado 21alaizquierdaoaladerecha. Enestasituaci onpodemosesperarquelamitaddelashormigaselijanunacosaylaotramitadotra. Unasituaci onmuysimi-larpuedeencontrarseenel otroladodel obstaculo. Esinteresantedestacarqueaquellashormigasqueeligenporcasualidadel caminocorto, reconstruyenmasrapidamente el reguero de pheromone interrumpido, en comparaci on con aquellasqueeligenel caminolargo. As queel caminocortorecibir amas cantidaddepheromone por unidadde tiempoy en cada turno unmayor n umero dehormigaselegira el camino corto. Debido a este proceso retroalimentado positivo, todas lashormigas elegiranrapidamenteelcaminomascorto.Dorigo M. y Gambardella L.M. (1997) han aplicado esta tecnica al TSPbas andose enlas ideas que se comentan a continuacion. Una hormiga articial esun agente que se mueve de una ciudad a otra en un grafo de TSP. Elige la ciudad ala que moverse (o arco que a nade a su ruta) con una probabilidad proporcional alreguero acumulado y la distancia delarco quese a nade. Las hormigas articialespreeren probabilsticamente ciudades que est an conectadas por arcos con muchoreguero de pheromone y que est an proximas. Inicialmente, m hormigas articialessecolocanenciudadesseleccionadasaleatoriamente. Encadaiteraci onsemue-ven anuevasciudadesymodicanelreguero depheromone delosarcos usados -estosedenominaactualizaci ondereguerolocal. Cuandotodaslashormigashancompletadounaruta, lahormigaquehacelarutamascortamodicalosarcospertenecientes a su ruta - se denomina actualizaci onderegueroglobal-a nadiendounacantidaddereguerodepheromonequees inversamenteproporcional alalongituddelaruta.Haytresideasdelaconductadelashormigasquesetranserenalacoloniadehormigasarticiales:1. lapreferenciaporcaminosconaltoniveldepheromone,2. el altoratiodecrecimientodelacantidaddepheromoneenlos caminoscortos,y3. elreguero mediadordecomunicacionentrelashormigas.SehadadoalashormigasarticialesalgunascapacidadesquenotienensuscolegasnaturalesperoquesehaobservadoquesonaptasparasuaplicacionalTSP: lashormigasarticialespuedendeterminarladistanciaalaqueest anlasciudades y est an dotadas con una memoria de trabajo Mkusada para memorizarlasciudadesyavisitadas(lamemoriadetrabajoest avacaal comienzodecadanuevarutayseactualizadespuesdecadapasodetiempoa nadiendolasnuevasciudadesvisitadas).Conel nde evitar que unarcomuyatractivoseaelegidopor todas lashormigasserealizalaactualizacionlocal del reguero: cadavezqueunarcoeselegido por una hormiga su cantidad de pheromone se cambia aplicando la formuladeactualizacion local. Laevaporaci on delreguero depheromoneenelmundodeRect@ Monogr aco 3(2007)22 Introduccionalosmetaheursticoslashormigasrealessetrasladaalacoloniadehormigasarticialesenformadeactualizacionlocaldelreguero.3.3 MetodosbasadosenmuestreoaleatorioSimulatedAnnealing(SA)KirkpatrickS.yotros(1983),eindependientementeCernyV.(1985),propo-nenunprocedimientoparaobtener solucionesaproximadasllamadoSimulatedAnnealing(TempleSimuladooRecocidoSimulado). Sepuedenconsiderarcomounavariantedelosmetodosdeb usquedalocal, enlaquesepermiteempeora-mientosenlasolucionactualaunquedeformacontrolada.Los autores mencionados introdujeron el concepto de templado en optimizacioncombinatoria. Este concepto est a basado en una estrecha analoga entre el procesofsicodetempladoylosproblemascombinatorios. LaideaoriginalquediolugaraestametaheursticaeseldenominadoalgoritmodeMetr opolis,Metropolisyotros(1953),bienconocidoenelmundodelaQumica-Fsica. Paraestudiarlaspropiedades de equilibrio, Metropolis utilizo el metodo deMontecarlo, que es elmas usado en Mecanica Estadstica para estudiar el comportamiento microscopicodeloscuerpos.Lasmoleculasdeunasustanciapuedentenerdistintosnivelesdeenerga. Elmenor de estos niveles es el llamado estado fundamental, 0. A una temperaturade 0o K todas las moleculas est an en su estado fundamental,pero sesabe que untrozo desustancia aaltatemperaturaprobablementeposea unestadodeenergamasaltoqueotroidenticoatemperaturamenor.Cada una de las maneras en que las moleculas pueden estar distribuidas entrelosdistintos nivelesdeenergarecibeel nombredemicroestado. Sedenominaal conjuntodetodoslosposiblesmicroestadosyn umerodeocupaci on, ni, aln umerodepartculasenel nivel deenergai. El n umerodemoleculasenlosestadossuperioresdecreceparaunatemperaturaTja.Parareducirlaenergadelasustanciaal menorvalorposible, bajarsimple-mente la temperatura al cero absoluto no asegura necesariamente que la sustanciaalcance su conguracion energetica mas baja posible. En fsicatermodin amica, seconoce comotempladoaunprocesotermalpara obtenerlosestados demasbajaenerga de un solido en un recipiente. Para ello hay que elevar la temperatura delrecipiente, al menos hasta conseguir que el solido se funda y posteriormente bajarlatemperaturadelrecipientemuysuavemente hastaquelaspartculas seestabi-licen,esdecir,hastallegar alestadosolido;entoncessedicequesehaproducidolacongelaci on.Simulaci onTermodin amicaOptimizaci onCombinatoriaEstadosdelmaterialSoluciones factiblesSEnerga Funci onf Estados surgidos por mecanismodeper-turbacionSolucionesvecinasEstadosmetaestablesMnimolocalEstadodecon-gelacionSoluci onnalRect@ Monogr aco 3(2007)M.Laguna,C.Delgado 23SimulacinTermodinmicaOptimizacinCombinatoriaEstados del material Soluciones factibles SEnerga Funcin fEstados surgidos pormecanismo de perturbacinSoluciones vecinasEstados metaestables Mnimo localEstado de congelacin Solucin finalFig. 8Correspondencia entreloselementosdesimulaci ontermodinamicayoptimizacioncombinatoria.Durantelafaselquida,todaslaspartculasdelmaterialsemuevendeformaaleatoria. Cuando se llega al estado solido, las partculas est an ordenadas en unaestructura enrejada con energa mnima. Esta estructura se consigue solamente silatemperaturainicialessucientementealta,yelenfriamientosehacedeformasucientementelenta; delocontrario, el material alcanzaunaestructurameta-estableconmayorvalorenergetico. Lacorrespondenciaentreloselementosdesimulaci on termodinamica y la optimizacion combinatoria es la que aparece en lagura8.GRASPGRASPsonlas iniciales eningles de GreedyRandomize Adaptive SearchProcedures (Procedimientos de B usqueda basados en funciones Avidas, AleatoriasyAdaptativas);sedieronaconoceranalesdelosochentaeneltrabajodeFeoT.A. y Resende M.G.C. (1989), pero han tenido un desarrollo mas reciente que losotrosmetaheursticos. UnaampliadescripcionsepuedeencontrarenuntrabajoposteriordelosmismosautoresFeoT.A.yResendeM.G.C.(1995).GRASPesunatecnicasimplealeatoriaeiterativa, enlaquecadaiteraci onprovee una solucion al problema que se este tratando. La mejor solucion de todaslasiteracionesGRASPseguardacomoresultadonal. Haydosfasesencadaiteraci on GRASP: la primera construye secuencial e inteligentemente una solucioninicialpormediodeunafunci onavida, aleatoriayadaptativa; enlasegundasefaseaplicaunprocedimientodeb usquedalocal alasoluci onconstruida, conlaesperanzadeencontrarunamejora.Enlafasedeconstrucci onsevaa nadiendoencadapasounelemento, hastaobtener la solucion completa. En cada iteraci on, la eleccion del proximo elementoparasera nadidoalasolucionparcial,vienedeterminadoporunafunci on avida(greedy). Esta funci on mide el benecio, seg un la funci on objetivo, de a nadir cadaRect@ Monogr aco 3(2007)24 Introduccionalosmetaheursticosuno de los elementos y elige la mejor opcion. Esta medida es miope,en el sentidodequenotieneencuentaqueocurriraeniteracionessucesivasal realizarunaeleccion,sino unicamenteloquepasaenesaiteraci on.Elheurstico esadaptativo,ya quelos beneciosasociados concada elementose actualizan en cada iteraci on de la fase de construcci on, para reejar los cambiosproducidosporlaselecci ondeelementosprevios.GRASPes aleatorizado porque no selecciona el mejor candidato seg unlafunci onavidaadaptada. Conlosmejoreselementosaa nadirseconstruyeunalistadenominadaListaRestringidadeCandidatos(RCLeningles),yseeligedeformaaleatoriaunodelosmejorescandidatosdedichalista, quenoseranece-sariamente elmejor. Laaleatoriedad sirvecomomecanismodediversicaci on enGRASP.No se garantiza que la solucion generada por la fase de construcci on de GRASPseaunoptimolocal respectoaunadenicionsimpledevecindario. Porelloseaplica b usqueda local para mejorar cada solucion construida. La fase de b usquedalocal nalizacuandonoseencuentraunasolucionmejorenel vecindariodelasolucionactual. GRASPsebasaenrealizarm ultiplesiteracionesyquedarseconlamejor, porloquenoesespecialmentebeneciosoparaelmetodoel detenersedemasiadoenmejorarunasoluciondada. El exitodeestasegundafasevienedeterminadopor laacertadaeleccionde laestructuradel vecindario, tecnicasecientesdeb usquedaenvecindarios, ylasolucioninicial.GRASP, al igual que otros metaheursticos, se hacombinadotambienconPath Relinking,estrategia comentada enelpunto 3.3.2. Laidea es encadenar lassolucionesqueseobtienenalnaldelasegundafase,utilizandounaparainiciarlab usquedayotracomogua.Cross-EntropyLosprecedentesdeCElosencontramosenRubinsteinR. (1997). CEesunmetodo para resolver problemas de optimizacion combinatoria, optimizacion con-tinua con m ultiples extremos y simulaci on de eventos poco frecuentes. Se basa enlaideadetransformarel problemadeoptimizaciondeterministaoriginal enunproblemaestoc asticoasociadoyafrontardichoproblemaasociadoutilizandounalgoritmoadaptativo. Seconstruyeunaseriealeatoriadesolucionesqueconver-genprobabilsticamenteal optimoocercadel optimo. Trasdenirel problemaestoc astico asociado CE emplea dos fases: 1. Generacion de un conjunto de datosaleatorios(trayectorias,vectores,..) seg ununmecanismoaleatorioespecco. 2.Actualizacion de los par ametros del mecanismo aleatorio, en base a los datos paraproducirunamejormuestraenlasiguienteiteraci on.Laimportanciadeestemetodoesquedeneunameticulosaestructurama-tematicaparaobtener rapidamente normas de aprendizaje yactualizacionenciertaforma optimasbasadasenteoradesimulaci onavanzada. Hayquere-Rect@ Monogr aco 3(2007)M.Laguna,C.Delgado 25saltar que CEpuede ser aplicadosatisfactoriamentetantoaproblemas deter-minsticoscomoaleatorios.4 Bibliografa[1] CamposV., F. Glover, M. Laguna, R. Mart. AnExperimental EvaluationofaScatterSearchfortheLinearOrderingProblem.Journal ofGlobalOp-timization.Vol.21,no4,pp.397-414, 2001.[2] CernyV., Thermodynamical approachtotheTravelingSalesmanProblem:Anecientsimulationalgorithm.JournalofOptimizationTheoryandAp-plications,45,pp.41-51,1985.[3] Charnes A., W.W. Cooper . Management Models and Industrial ApplicationsofLinearProgramming. Wiley,NewYork.1961.[4] Cochrane J., M. Zeleny (eds), MultipleCriteria Decision Making. UniversityofSouthCarolinaPress.1973.[5] Crowston W.B.,F.Glover, G.L.Thompson, J.D.Trawick. Probabilistic andParametric Learning Combinations of Local JobShopScheduling Rules.ONRResearchMemorandumNo. 117, GSIA, CarnegieMellonUniversity.Pittsburgh,PA.1963.[6] De Boer PT, Dirk P. Kroese, Shie Mannor, Reuven Y. Rubinstein. A TutorialontheCross-Entropy Method.AnnalsofOperationsResearch.Vol134,pp.19-67.2005.[7] Dorigo M., L.M. Gambardella. Ant Colonies for the Traveling Salesman Pro-blems. TR/IRIDIA/1.996-3.UniversiteLibredeBruxelles. Belgium. Publi-cadoenBioSystem,Vol43,pp.73-81.1997.[8] DorigoM.,V.Meniezzo,A.Colorni(1996).TheAntSystem: OptimizationbyaColonyofCooperating.Agents. IEEETransactionsonSystems, Man,andCybernetics-Part B,26(1):29-41.[9] FeoT.A.,M.G.C.Resende (1989). A Probabilistic Heuristicfor a Compu-tationally Dicult Set Covering Problem. Operations Research Letters. Vol.8,pp.6771.[10] FeoT. A., M. G. C. Resende(1995).GreedyRandomizedAdaptiveSearchProcedures.JournalofGlobalOptimization.Vol.2,pp.127.[11] FisherH.,G.L.Thompson(1963).Probabilistic LearningCombinationsofLocal Job-ShopSchedulingRules. IndustrialScheduling, J.F. MuthandG.L.Thompson(eds.)Prentice-Hall,pp.225-251.Rect@ Monogr aco 3(2007)26 Introduccionalosmetaheursticos[12] Fogel L. J.,A. J. Owens, M. J. Walsh (1966). Articial Intelligence ThroughSimulatedEvolution.Wiley,NewYork.[13] GareyM.R., D. Johnson(1979). ComputersandIntractability. AguidetotheTheoryofNP-Completeness.W.HFreemanandCompany,NewYork.[14] Garnkel R.S. (1985). MotivationandModellinginLAWLERE.L., LES-TRA J.K., RINNOOY KAN A.H.G.& SHMOYS D.B. (eds.) The TravellingSalesmanProblem: AGuideTour of Combinatorial Optimization. Wiley.Chichester,pp.17-36.[15] GloverF. (1989). TabuSearch: PartI. ORSAJournalonComputing. Vol.1,pp.190206.[16] Glover F. (1990-a). Tabu Search: Part II. ORSA Journal on Computing. Vol.2,pp.432.[17] GloverF.(1996).B usquedaTab uenOptimizaci onHeursticayRedesNeu-ronales.AdensoDaz(coordinador).Paraninfo.Madrid.pp.105143.[18] GloverF. (1998). ATemplateforScatterSearchandPathRelinking. J.k.Hao,E.Lutton,E.Ronald,M.Schoenauer,D.Syners(eds.).articialEvo-lution.SpringerLNCS1363, pp.13-64.[19] Glover, F., M. Laguna(1997). TabuSearch. KluwerAcademicPublishers.Boston.[20] Glover F.,M.Laguna (2002). TabuSearch. Handbook of AppliedOptimiza-tion,P.M.Paradalos andM.G.S.Resende(eds).OxfordUniversityPress,pp.194-208.[21] GloverF., M. Laguna, R. MARTI (2004). NewIdeas andApplications ofScatter Search and Path Relinking. Techniques in Engineering, G. C. Onwu-boluandB.V.Babu(eds.),Springer,ISBN:3-540-20167-X .[22] GloverF., M. Laguna, R. MARTI(2000). Fundamentalsof ScatterSearchandPathRelinking.ControlandCybernetics,vol.39,no.3pp.653-684[23] GoldbergD.E. (1994).GeneticandEvolutionaryAlgorithmsComeofAge.CommunicationsoftheACM.Vol.37,No.3.March.[24] Hansen P., N. Mladenovic (1998). An Introduction to Variable NeighborhoodSearch. S. Vossetal. (eds). MetaheuristicsAdvancesandTrendsinLocalSearchParadigmsforOptimization, pp. 433-458,MIC-97, Kluwer, Dordre-cht.Rect@ Monogr aco 3(2007)M.Laguna,C.Delgado 27[25] HansenP., N. Mladenovic (2003). ATutorial onVariable NeighborhoodSearch. Technical report. Les Cahiers du GERAD G-2003-46. Montreal. HO-LLANDJ.(1975). AdaptationinNaturalandArticialSystems.UniversityofMichiganPress,AnnAbor.[26] KennedyJ., R. Eberhart(1995). Particleswarmoptimization, inProc. oftheIEEEInt.Conf.onNeuralNetworks,Piscataway, NJ,pp.19421948,[27] KirkpatrickS., JR. C. D. Gelatt, M. PVecchi. (1983). OptimizationbySimulatedAnnealing.Science,Vol.220,pp.671-680.[28] LagunaM. (2002). ScatterSearch. InHandbookof AppliedOptimization,P. M. PardalosandM. G. C. Resende(Eds.), OxfordUniversityPress, pp.183-193.[29] Lawler E. (1976). Combinatorial Optimization. Networks and Matroids, Holt,RinehartandWinston,NewYork.[30] LawlerE. L., J. K. Lenstra, A. H. G. RinnooyKan, D. B. Shmoys(eds.)(1985). TheTravelingSalesmanProblem: AGuideTourof CombinatorialOptimization.Wiley.Chichester.[31] MetropolisN., A. Rosenbluth, M. Rosenbluth, A. Teller, E. Teller(1953).Equationof State Calculations byFast Computing Machines. Journal ofChemicalPhysics,21,pp.10871092.[32] MladenovicN.(1995).AVariableNeighborhoodAlgorithmANewMeta-heuristicforCombinatorialOptimization. AbstractsofpaperspresentedatOptimizationDays.Montreal,p.112.[33] Mladenovic N., P. Hansen (1997). Variable Neighborhood Search. ComputersandOperationsResearch,24,1097-1100.[34] Naylor T.H., J. Balintfy, D. Burdick, K. Chu (1982). Tecnicas de Simulaci onenComputadoras.LimusaMejico.[35] OsmanI. H., J. P. Kelly(1996). Meta-Heuristics: Theory&Applications.KluwerAcademicPublishers.[36] PapadomitriouC. H., K. Steiglitz(1982).CombinatorialOptimization: Al-gorithmsandComplexity.PrenticeHall,NewYork.[37] Pareto,V. (1896).CoursDEconomiePolitique,Vol. IyII. F. Rouge,Lau-sanne.[38] ResendeM.G.C.,C.C.Ribeiro(2005). GRASPwithPath- Relinking: Re-centAdvancesandApplications.Metaheuristics: ProgressasRealProblemSolvers,T.Ibaraki,K.NonobeandM.Yagiura,(Eds.),Springer,pp.29-63Rect@ Monogr aco 3(2007)28 Introduccionalosmetaheursticos[39] Rubinstein R. (1997). Optimization of computer simulation models with rareevents.EuropeanJournalofOperationsResearch,99,89-112.[40] SchrijverA. (1986). Theoryof LinearandIntegerProgramming. SeriesinDiscreteMathematics.JohnWiley&Sons.Rect@ Monogr aco 3(2007)IntroduccionalaB usquedaTab uBelenMelianBatistaa, FredGloverbaDpto. deEstadstica, I.O.yComputacion,EscuelaTecnicaSuperiordeIngenieraInformaticaUniversidaddeLaLagunambmelian@ull.esbUniversityofColoradoatBoulder,[email protected] IntroduccionEl terminoB usquedaTab u(TabuSearch-TS)fueintroducidoen1986porFredGlover enel mismoartculoqueintrodujoel terminometaheurstica[5].Losprincipiosfundamentalesdelab usquedafueronelaboradosenunaseriedeartculos de nales de los a nos 80 y principios de los 90, que fueron luego unicadosenel libroTabuSearchen1997[8]. El destacadoexitodelab usquedatab upara resolver problemas de optimizacion duros, especialmente aquellos que surgenenaplicacionesdelmundoreal,hacausadounaexplosiondenuevasaplicacionesdurantelos ultimosa nos,queaparecenresumidasen[9].La b usqueda tab u es una metaheurstica que gua un procedimiento heursticodeb usquedalocal enlab usquedadeoptimalidadglobal. Sulosofasebasaenderivaryexplotarunacolecci ondeestrategiasinteligentesparalaresoluciondeproblemas,basadasenprocedimientosimplcitosyexplcitosdeaprendizaje. Elmarcodememoriaadaptativadelab usquedatab unosoloexplotalahistoriadel procesoderesoluciondel problema, sinoquetambienexigelacreacionde*Este trabajohasidoparcialmente nanciado por el Ministeriode CienciayTecnologa(proyectoTIN2005-08404-C04-03 (70%sonfondos FEDER)) ypor el GobiernodeCanarias(proyectoPI042004/088). LaactividaddesarrolladaseenmarcadentrodelosobjetivosdelaredRedHeur(proyectoTIN2004-20061-E).Rect@ Monogr aco 3(2007)30 IntroduccionalaB usquedaTab uestructuras parahacer posible tal explotaci on. De estaforma, los elementosprohibidos enla b usqueda tab urecibeneste estatus por la conanzaenunamemoriaevolutiva, quepermitealteraresteestadoenfunci ondel tiempoylascircunstancias. Eneste sentido es posible asumir que lab usqueda tab uest abasadaendeterminadosconceptosqueunenloscamposdeinteligenciaarticialyoptimizacion.M as particularmente, la b usqueda tab u est a basada en la premisa de que paraclasicarunprocedimientoderesolucioncomointeligente, esnecesarioqueesteincorporememoriaadaptativayexploraci onresponsiva. Lamemoriaadaptativaenb usquedatab upermitelaimplementaciondeprocedimientoscapacesderea-lizarlab usquedaenel espaciodesolucionesecazyecientemente. Dadoquelas decisiones locales est an por tanto guiadas por informacion obtenida a lo largodelprocesodeb usqueda,lab usquedatab ucontrastacondise nosqueporcontraconfan enprocesossemialeatorios, queimplementanunaformademuestreo. Lamemoria adaptativa tambien contrasta con los tpicos dise nos de memoria rgidostalescomolasestrategias deramicaci onyacotacion.El enfasis en la exploraci on responsiva considerada en la b usqueda tab u derivadelasuposiciondequeunamalaeleccionestrategicapuedeproporcionarmasinformacionque una buena eleccionrealizadaal azar, dado que una eleccionestrategicamalapuedeproporcionarpistas utilessobrec omoguiarlab usquedahaciazonas prometedoras. Por lotanto, laexploraci onresponsivaintegralosprincipios b asicos delab usquedainteligente; explotalas caractersticasdelassolucionesbuenasalavezqueexploranuevasregionesprometedoras.2 LaestructuradelaB usquedaTab u2.1 UsodememoriaLas estructuras de memoria de la b usqueda tab u funcionan mediante referenciaacuatrodimensionesprincipales,consistentesenlapropiedaddeserreciente,enfrecuencia, encalidad, yeninuencia. Las memorias basadas enlo recienteyenfrecuenciasecomplementanlaunaalaotraparalograrel balanceentreintensicaci onydiversicaci onque todoprocesode b usquedaheursticadebeposeer. Discutiremos con mas detallelos aspectos referentes a estas dos primerasdimensiones de memoria a lo largo de este captulo. La dimensi on de calidadhacereferencia a la habilidad para diferenciar la bondad de las soluciones visitadas a lolargo del proceso de b usqueda. De esta forma, la memoria puede ser utilizada paralaidenticaciondeelementoscomunesasolucionesbuenasoaciertoscaminosqueconducenaellas. Lacalidadconstituyeunfundamentoparael aprendizajebasadoenincentivos, donde se refuerzanlas acciones que conducenabuenassoluciones ysepenalizanaquellasque,porcontra, conducenasoluciones pobres.Laexibilidadde las estructuras de memoriamencionadas hastael momentoRect@ Monogr aco 3(2007)B.Melian,F.Glover 31permitenguiar la b usquedaenunentorno multi-objetivo, dadoquese determinala bondad de una direcci on de b usqueda particular mediante mas de una funci on.Por ultimo, lacuartadimensi ondememoria, referidaalainuencia, considerael impactodelas decisiones tomadas durante lab usqueda, nosolo en loreferentealacalidadde las soluciones, sinotambienenloreferentealaestructuradelasmismas. Este ultimousodememoriaesunacaractersticaimportantedelab usquedatab uqueconfrecuenciaseolvida, peroquedeberaser consideradainclusoenlosdise nosmassimplescomoveremosalolargodeestecaptulo.El usodememoriaenlab usquedatab ues tantoexplcita comoimplcita.Enelprimercaso,sealmacenanenmemoriasolucionescompletas,generalmentesoluciones elite visitadas durante la b usqueda, mientras que en el segundo caso, sealmacena informacion sobre determinados atributos de las soluciones que cambianalpasardeunasolucionaotra. Aunque,enalgunoscasos,lamemoriaexplcitaes usada para evitar visitar soluciones mas de una vez, esta aplicacion es limitadadado que es necesario la implementacion de estructuras de memoria muy ecientespara evitar requerimientos de memoria excesivos. De cualquier manera, estos dostiposdememoria soncomplementarios, puestoquelamemoriaexplcitapermiteexpandirlosentornosdeb usquedausadosduranteunprocesodeb usquedalocalmediante lainclusi onde soluciones elite, mientras que lamemoriabasadaenatributoslosreduceprohibiendodeterminadosmovimientos.2.2 IntensicacionyDiversicacionLasestrategiasdeintensicaci onydiversicaci onconstituyendoselementosaltamenteimportantesenunprocesodeb usquedatab u. Lasestrategiasdein-tensicaci onsebasanenlamodicaciondereglasdeselecci onparafavorecerlaelecciondebuenascombinacionesdemovimientosycaratersticasdesolucionesencontradas. Estoimplicaqueesnecesarioidenticarunconjuntodesolucioneselitecuyosbuenosatributospuedanserincorporadosanuevassolucionescrea-das. Lapertenenciaal conjuntodesolucioneselitesedeterminageneralmenteatendiendoalosvalores delafunci onobjetivocomparados conlamejorsolucionobtenidahastaelmomento.Por otro lado, las estrategias de diversicaci on tratan de conducir la b usquedaazonas del espaciodesoluciones novisitadas anteriormenteygenerar nuevassolucionesquedieransignicativamentedelasyaevaluadas.2.3 UnejemploilustrativoLosproblemasdepermutacionessonunaclaseimportantedeproblemasenoptimizacion, yofrecenunmodomuy util parademostraralgunasdelascon-sideracionesquedebensertratadasenel dominiocombinatorio. Lasinstanciasclasicasdeproblemasdepermutacionesincluyenlosproblemasdel viajantedeRect@ Monogr aco 3(2007)32 IntroduccionalaB usquedaTab ucomercio,asignacioncuadratica,secuenciaciondelaproduccion,yunavariedadde problemas de dise no. Como base para la ilustraci on, consideremos el problemade secuenciacion de tareas en una unica maquina. El objetivo de este problema esencontrarunordenparasecuenciarlastareasenlamaquinadetalformaqueseminimice el retraso total en la ejecuci on de las tareas. Cada tarea j, j= 1, 2, ..., n,tieneasignadosuntiempodeprocesamientopjyundadenalizaciondj. Deformaadicional,sepodraconsiderarunvalordepenalizacionporretardoenlanalizaciondelastareasquedependeradelatareaconsiderada,wj. Portanto,lafunci onaminimizarseexpresacomoF=n

j=1wj[Cj dj]+,donde Cjes el tiempo de nalizacion de la tarea jy [Cjdj]+= max{0, Cjdj}.El tiempodenalizacion deuna tarea j,Cj,esigual al tiempodeprocesamientodelatareaj maslasumadelostiemposdeprocesamientodetodaslastareasqueserealizanantesquej.El problemaconsisteendeterminarel ordendesecuenciaci ondelastareasqueminimizaelvalordelafunci onobjetivoF. Unasecuenciaciondelastareas,queconstituyeunapermutacion,denecompletamenteaunasolucion.Nos centramos, por tanto, en el problema de secuenciacion de tareas enuna unica maquina para introducir e ilustrar los componentes b asicos de lab usquedatab u. Supongamosqueseconsideran6tareasparasusecuenciacionenlamaquina. Amodode ilustraci on, supongamos que este problemade 6tareas tiene tiempos de procesamiento dados por (5, 8, 2, 6, 10, 3), das de termi-nacion especicados por (9, 10, 16, 7, 20, 23), y penalizaciones por retraso wj= 1para j= 1, 2, ..., 6. Deseamos dise nar un metodo capaz de encontrar una solucionoptimaocercanaalaoptimaexplorandosolounpeque nosubconjuntodetodaslaspermutacionesposibles.Primeroasumimosquepuedeconstruirseunasolucioninicial paraestepro-blemadealgunamanerainteligente, esdecir, tomandoventajadelaestructuraespecca delproblema. Supongamosquelasolucion inicialdenuestroproblemaeslaqueapareceenlaFigura1.Tareas 1 2 3 4 5 6Figura1: Permutacion inicialLaordenaci ondelaFigura1especicaquelatarea1serealizaenprimerRect@ Monogr aco 3(2007)B.Melian,F.Glover 33Tareasi j F valordelmovimiento abs(didj)1 2 40 1 91 3 42 3 71 4 38 -1 21 5 64 25 111 6 47 8 142 3 41 2 62 4 37 -2 32 5 49 10 102 6 39 0 133 4 42 3 93 5 54 15 43 6 48 9 74 5 43 4 134 6 38 -1 165 6 32 -7 3Tabla1: Entorno deIntercambioslugar, seguidapor la tarea2, etc. El valor de lafunci onobjetivoparaestasolucion es 39. Los metodos TS operan bajo el supuesto de que se puede construirunentornoparaidenticarsolucionesadyacentesquepuedanseralcanzadasdesdelasolucionactual. Losintercambiosporparessonfrecuentementeusadosparadenirentornosenproblemasdepermutaciones,identicandomovimientosqueconducenunasolucionalasiguiente. Ennuestroproblema,unintercambiocambialaposiciondedostareascomoseilustraenlaFigura2. Portanto, elentorno completo de una solucion en nuestro ejemplo ilustrativo est a formado por15 soluciones adyacentes quepuedenser obtenidasapartir deestosintercambiostalcomomuestraelCuadro1. 6 2 3 4 5 1Figura2: Intercambiodelastareas1y6Tal comoobservamosenel Cuadro1, asociadoacadaintercambiohayunvalordemovimiento, querepresentael cambiosobreel valordelafunci onob-jetivocomoresultadodel intercambiorealizado. Losvaloresdelosmovimientosgeneralmenteproporcionanunabasefundamental paraevaluarlacalidaddelosmismos,aunquetambienpuedenserimportantesotroscriterios. Unmecanismoprincipalparaexplotarlamemoriaenlab usquedatab uesclasicarunsubcon-Rect@ Monogr aco 3(2007)34 IntroduccionalaB usquedaTab ujuntodemovimientosenunentornocomoprohibidos(otab u). Laclasicaciondependedelahistoriadelab usqueda, determinadamediantelorecienteofre-cuentequeciertosmovimientos ocomponentesdesoluciones,llamados atributos,han participado en la generaci on de soluciones pasadas. Por ejemplo, un atributodeunmovimientoeslaidentidaddel pardeelementosquecambianposiciones(en este caso, las dos tareas intercambiadas). Como base para evitar la b usquedadesdecombinacionesdeintercambiorepetidasusadasenel pasadoreciente, in-virtiendopotencialmentelosefectosdemovimientosanterioresporintercambiosquepodrandevolver aposiciones previas, clasicaremos comotab utodos losintercambioscompuestosporcualquieradelosparesdetareasmasrecientes;enestecaso, paraprop ositosilustrativos, lastresmasrecientes. Estosignicaqueunpardetareasseratab uduranteunperodode3iteraciones. Dadoqueinter-cambiarlastareas2y5eslomismoqueintercambiarlastareas5y2, ambosintercambiospuedenserrepresentadosporel par(2, 5). Porlotanto, sepuedeusarunaestructuradedatoscomolausadaenlaFigura3.2 3 4 5 612345

Perodotab ures-tante para el pardetareas(2, 5)Figura3: EstructuradeDatosTab uCadaceldadelaestructuradelaFigura3contieneeln umerodeiteracionesrestanteshastaquelascapascorrespondientespuedannuevamenteintercambiarposiciones. Portanto, si lacelda(2, 5) tuvieraunvalor decero, entonces lastareas 2 y 5 estaran disponibles para intercambiar posiciones. Por otro lado, si lacelda tuviera un valor de 2, entonces las tareas no podran intercambiar posicionesdurantelasdositeracionessiguientes(esdecir,unintercambioquecambiaestastareasesclasicadocomotab u).Paraimplementarrestriccionestab u, debetenerseencuentaunaexcepcionimportante: lasrestriccionestab unosoninviolablesbajocualquiercircunstan-cia. Cuandounmovimientotab uresultara enunasolucion mejorquecualquieravisitadahastaesemomento, suclasicaciontab upodraserreemplazada. Unacondicionquepermitequeocurratal reemplazosellamacriteriodeaspiraci on.Acontinuacionsemuestran7iteracionesdel procedimientodeb usquedatab ub asico,queusalarestricciontab udetareasemparejadas.Rect@ Monogr aco 3(2007)B.Melian,F.Glover 35Solucionactual123456F= 39Estructuratab u2 3 4 5 612345Primeros5candidatosValordemovimiento 5, 672, 421, 414, 612, 6 0Figura4: Iteracion0LasoluciondepartidadelaFigura4tieneunvalordelafunci onobjetivoF=39, ylaestructuradelosdatostab uest ainicialmentevaca, esdecir, est allenadeceros, indicandoquening unmovimientoest aclasicadocomotab ualcomienzodelab usqueda. Despuesdeevaluarlosmovimientosdeintercambiode candidatos, se muestranenlatablaparalaiteraci on0los cincoprimerosmovimientos (en terminos de valores de movimiento). Para minimizar localmenteel retraso total enla ejecuci ondelas tareas, intercambiamos las posiciones delastareas5y6,comoseindicaatravesdelasteriscoenlaFigura4. Eldecrementototaldeestemovimientoesiguala7unidades,conloqueelvalordelafunci onobjetivopasaaserF= 32.Soluciontab u123465F= 32Estructuratab u32 3 4 5 612345Primeros5candidatosValordemovimiento 2, 421, 411, 212, 3 24, 6 2Figura5: Iteracion1Lanuevasolucionactualtieneunvalordefunci onobjetivoF= 32(esdecir,Rect@ Monogr aco 3(2007)36 IntroduccionalaB usquedaTab uel retraso total anterior mas el valor del movimiento seleccionado). La estructuratab udelaFigura5ahoramuestraqueel intercambiodelasposicionesdelastareas5y6seprohbedurante3iteraciones. Elmovimientoqueproporcionalamayor mejora en este paso es el intercambio de las tareas 2 y 4 con un decrementode2unidades.Solucionactual143265F= 30Estructuratab u232 3 4 5 612345Primeros5candidatosValordemovimiento 1, 421, 3 13, 4 2T2, 4 22, 6 2Figura6: Iteracion2La nueva solucion actual tiene un retraso en la ejecuci on de las tareas de 30. Enestaiteraci onseclasicancomotab udosintercambioscomoseindicamediantelasentradasdistintasdeceroenlaestructuratab udelaFigura6. Notequelaentrada (5, 6) ha disminuido de 3 a 2, indicando que su perodo tab u original de 3ahora tiene 2 iteraciones restantes. En este momento, el intercambio de las tareas1 y 4 conduce a una nueva mejora en el valor de la funci on objetivo, disminuyendoendosunidades. LaFigura7muestraahora3movimientosclasicadoscomotab u.Enestemomento, ningunodeloscandidatostieneunvalordemovimientonegativo. Por lo tanto, se realiza un movimiento de no mejora. Dado que el primermovimientodenomejoraesel inversodel movimientoejecutadoenlaiteraci onanterior, queest aclasicadocomotab u(indicadoporT),estemovimientonoseselecciona. Entonces se elige elintercambio delas tareas 1 y 3,como seindica enlaFigura7.Siguiendo el mismo procedimiento indicado hasta este momento, se realizaranlas siguientes iteraciones mostradas enlas Figuras 8 a 11. Enestas ultimasiteraciones observamos que se realizan movimientos de no mejora para escapar delasolucionconvalorobjetivoF= 28,quepareceserunoptimolocal.Si duranteel procesoexplicadohubierahabidoalg unmovimientoclasicadocomotab uquecondujeraaunasolucionconunretrasoenlanalizaciondelastareas menor queel dela mejor solucion encontrada hasta el momento, sepodrahaberusado uncriteriodeaspiracion. Enestecaso,hubieramos usadoelcriterioRect@ Monogr aco 3(2007)B.Melian,F.Glover 37Solucionactual413265F= 28Estructuratab u1232 3 4 5 612345Primeros5candidatosValordemovimientoT1, 4 2 1, 3 22, 6 21, 2 32, 3 3Figura7: Iteracion3Solucionactual431265F= 30Estructuratab u12 32 3 4 5 612345Primeros5candidatosValordemovimientoT1, 32 3, 4 1T1, 4 22, 6 21, 2 3Figura8: Iteracion4deaspiracionporobjetivo, queseleccionacomosolucionactual laquetengaunmenor valor objetivo, independientemente de que los movimientos requeridos paraalcanzarla seantab u.Enalgunassituaciones,puedeserdeseableincrementarelporcentajedemo-vimientosdisponiblesquerecibenunaclasicaciontab u. Ademas, apesardeltipoderestriccion seleccionado, amenudose obtienenmejores resultados porlosplazos tab u que varan dinamicamente, como se describe con posterioridad en estecaptulo.Valores de Movimientoy Estrategiade Listade Candidatos. Dadoque lab usqueda tab u selecciona agresivamente los mejores movimientos admisibles (dondeel signicadodemejoresafectadoporlaclasicaciontab uyotroselementosaser indicados), debe examinar y comparar un n umero de opciones de movimiento.Rect@ Monogr aco 3(2007)38 IntroduccionalaB usquedaTab uSolucionactual341265F= 31Estructuratab u1 232 3 4 5 612345Primeros5candidatosValordemovimientoT3, 41T1, 31T1, 4 1 2, 6 21, 2 3Figura9: Iteracion5Solucionactual341625F= 33Estructuratab u1232 3 4 5 612345Primeros5candidatosValordemovimientoT2, 62T3, 41T1, 31 1, 4 13, 6 2Figura10: Iteracion6Paramuchosproblemas, solounaporciondelosvaloresdemovimientocambiadeunaiteraci onaotra,yamenudoestosvalorescambiadospuedensersepara-dos yactualizados muyrapidamente. Este elementodemantener actualizacionesecientes es muy importante y en ocasiones ignorado. Por ejemplo, en la presenteilustraci onpuedeser util almacenarunatablavalormovimiento(j,k), quealma-cenaelactualvalordelmovimientoparaintercambiar lastareasj yk. Entoncescuandoseejecutaunmovimiento, unaparterelativamentepeque nadeestata-bla(formadapor los valoresquecambian) puedeser modicadarapidamente,ylatablaactualizadapuedeserconsultadaparaidenticarmovimientosqueseconviertenenlosnuevoscandidatossuperiores.Si atendemos al Cuadro 1, observamos claramente que hay una variacion muygrande en la calidad de cada intercambio en el entorno denido para una solucion.Rect@ Monogr aco 3(2007)B.Melian,F.Glover 39Solucionactual314625F= 34Estructuratab u1232 3 4 5 612345Primeros5candidatosValordemovimientoT3, 44T2, 62T1, 41 1, 3 03, 6 1Figura11: Iteracion7Por lotanto, parece util eliminar algunas soluciones decalidadbajaantes deevaluar su valor de movimiento mediante un ltro. En nuestro ejemplo ilustrativodesecuenciaciondetareasenunamaquina,podemosimplementarunaregla queelimineaquellosmovimientosparalosqueel valorabsolutodeladiferenciadelosdasdeterminaci onseamayor que3. Deestaforma,enlosdatosdelCuadro1,evaluaramostansolo3movimientosenvezde15,generandoasunalistadecandidatos.EstructurasdeMemoriaTab uComplementarias.El complementodememoriabasadaenloreciente alamemoriabasadaenfrecuenciaa nadeunacomponente quetpicamente opera sobre unhorizonte maslargo. Ennuestroejemploilustrativo, si continuamosconlatrazaanterioruti-lizando unicamenteinformacionbasadaenlas 3iteraciones mas recientes, ob-servamosqueseproduceuncicladodelassoluciones. Parailustrarunadelasaplicaciones utiles de largo perodo de memoria basada en frecuencia, suponemosquehansidoejecutadas14iteracionesTS, yqueel n umerodevecesquecadapardetareashasidointercambiadoseguardaenunaestructuradedatostab uexpandida (Figura 12). La diagonal inferior deesta estructura ahora contiene loscontadores defrecuencia.Enlaiteraci onactual (iteracion15), lamemoriabasadaenlorecientein-dicaquelos ultimostresparesdetareasintercambiadosfueron(1, 4), (2, 6), y(3, 4). Loscontadoresdefrecuenciamuestranladistribuci ondemovimientosatravesdelas14primerasiteraciones. Usamosestoscontadoresparadiversicarlab usqueda, conduciendolaanuevasregionesyrompiendoel ciclado. Nuestrousodeinformaciondefrecuenciapenalizaramovimientosdenomejoramediantelaasignaciondeunapenalizacionmayoraintercambiosdeparesdetareasconmayores contadoresdefrecuencia. (Tpicamente,estoscontadoresserannorma-lizados,porejemplomedianteladivisi onporeln umerototaldeiteracionesosuRect@ Monogr aco 3(2007)40 IntroduccionalaB usquedaTab uSolucionactual314625F= 34 (Frecuente)Estructuratab u(Reciente)12311 33331 2 3 4 5 6123456Primeros5candidatosValorValorPenalizadoT3, 4 4 T2, 6 2 T1, 4 1 1, 3 0 3 3, 6 1 1Figura12: Iteracion15maximovalor). Estoseilustraenel ejemplopresentesimplementesumandoelvalordefrecuenciaalvalordelmovimientoasociado.Lalistadecandidatossuperioresparalaiteraci on15muestraqueel movi-mientodemaximamejoraesel intercambio(3, 4), perodadoqueestepartieneunperodotab uresidual, es clasicadotab u. Lomismosucedeconlos movi-mientos(2, 6)y(1, 4). El movimiento(1, 3)tieneunvalorde0, ypudieraserenotrocasoel siguientepreferido, exceptosi sustareasasociadashansidoin-tercambiadasfrecuentementedurantelahistoriadelab usqueda(dehecho, masfrecuentementequecualquierotropardetareas). Por lotanto,elmovimientoespenalizadofuertementeypierdesuatractivo. Elintercambiodelastareas3y6es,portanto,seleccionadocomoelmejormovimientoenlaiteraci onactual.Laestrategiadeimponerpenalizacionesbajocondicionesparticularesseusaparapreservarlaagresividaddelab usqueda. Lasfuncionesdepenalizacionengeneral se dise nanparajusticar no solofrecuencias sino tambienvalores demovimientosyciertasmedidasdeinuencia.Ademas,lasfrecuenciasdenidassobrediferentessubconjuntosdesolucionesanteriores, particularmente subconjuntos de soluciones elite formados por optimoslocalesdealtacalidad, danlugaraestrategiascomplementariasllamadasestra-tegiasdeintensicaci on. Lasestrategiasdeintensicaci onydiversicaci oninte-ract uanparaproporcionarpuntosdeapoyofundamentalesdememoriadelargoplazoenb usquedatab u. Elmodoenelquetaleselementossoncapacesdecrearmetodos realzados delab usqueda,extendiendoelenfoquesimplicadodelejem-ploprecedente,seelaboraenlassiguientessecciones.Rect@ Monogr aco 3(2007)B.Melian,F.Glover 413 FundamentosdelaB usquedaTab u: MemoriaaCortoPlazoAntes decomenzaradetallarlosfundamentos delab usquedatab u, esne-cesariodisponerdealgunasdenicionesyconvencionesb asicas. Expresemosunproblemadeoptimizacionmatematicadelasiguienteforma:min c(x)Sujetoax XLafunci onobjetivoc(x)puedeserlineal onolineal, ylacondicionx Xresumelasrestriccionesimpuestassobreel vectorx. Estasrestriccionespuedenincluirdesigualdadeslinealesonolineales, ypuedenforzaraalgunasoatodaslascomponentesdexatomarvaloresdiscretos.Enmuchasaplicaciones deoptimizacioncombinatoria, elproblema deinteresnoesexplcitamenteformuladocomolohemosmostrado. Enestoscasos, estaformulaci onpuedeserconcebidacomounc odigoparaotraformulaci on. El re-querimientox X, porejemplo, puedeespecicarcondicioneslogicasointer-conexionesqueseradifcil formularmatematicamente, yqueesmejordejarlascomo estipulacionesverbales (porejemplo,enformadereglas). Enocasiones, enestas instancias, las variables son simplemente c odigos para condiciones o asigna-cionesquerecibenunvalordeunoparacodicarlaasignaci on deunelementoua una posicion v,y que recibe unvalor de cero para indicar que no se produce talasignacion.3.1 B usquedaporentornoLab usquedatab upuedesercaracterizada mediantereferenciaalab usquedapor entornos, aunquees importantedestacar quela b usquedaenelentorno tieneunsignicadomasamplioenb usquedatab uqueenalgunasotrasestrategiasdela literatura de las metaheursticas. Una representacion de b usqueda por entornoidentica, para cada solucion x X, un conjunto asociado de vecinos, N(x) X,llamadoentornodex. Enb usquedatab u, losentornosnormalmenteseasumensimetricos, esdecir, xesunvecinodexsi ysolosi xesunvecinodex. Lospasosenlab usquedaporentornosemuestranenlaFigura13.3.2 MemoriayClasicacionesTab uLaideadeexplotarciertasformasdememoriaadaptativaparacontrolarelprocesodelab usquedaesel