domingo, 9 de diciembre de 2012
La Minería y la contaminación del agua
La actividad minera en Chile antecede a su historia y alcanzó un ritmo importante en el siglo 19, seguido en el siglo 20 por el desarrollo de las grandes explotaciones cupríferas. El hecho de que gran parte de la minería chilena se efectúe en el norte del país, cuya economía y cultura están estrechamente ligadas a dicha actividad, ha favorecido una actitud relativamente permisiva o indiferente frente a los riesgos de la contaminación de los recursos hídricos. Por otra parte, la preocupación ambiental es relativamente nueva en Chile, y la toxicidad de contenidos anómalos de metales o metaloides pesados es aún materia de debate (p.ej., la del Cu o Mo) o reconocida en pocos casos, como los del As, Cd, Hg, Pb y el Cr(+6).
Entre los factores que deben ser considerados con especial cuidado, por su efecto en la composición y dispersión de los contaminantes, están la posición de la fuente potencial en la respectiva cuenca hidrográfica, así como la mineralogía del depósito y el tipo e intensidad de la alteración hidrotermal que afecta a las rocas de su entorno. Cuando se trate de explotaciones mineras en etapa de cierre, la preocupación debe ser máxima, si ellos: a) Incluyen contenidos significativos de metales o metaloides con propiedades tóxicas. b) Se sitúan en la cabecera de las cuencas, en áreas de topografía abrupta. c) Están en zonas con intensa alteración hidrotermal. d) Sus rocas presentan alto grado de fracturamiento. e) Su explotación subterránea ha dejado un elevado volumen de cavidades, que faciliten la interacción de los minerales residuales con el agua subterránea. f) La pirita (bisulfuro de hierro) es un componente mineralógico abundante.
Criterios como los señalados son importantes, dado lo abundante de las concentraciones minerales y las zonas de alteración hidrotermal del territorio chileno, así como el gran número de depósitos de residuos mineros abandonados y las muchas explotaciones mineras activas o en etapa de cierre. El establecer criterios objetivos que permitan priorizar la vigilancia ambiental puede permitir su mayor efectividad, así como importantes ahorro de tiempo y dinero, tanto al sector público como al privado.
Introducción
Un aspecto esencial de la gestión ambiental, tanto pública como privada es la necesidad de obtener el mejor rendimiento posible de los medios humanos y materiales disponibles. Ello requiere la capacidad de dirigir los esfuerzos hacia aquellos factores que implican un riesgo mayor y de cuyo control se puede obtener el mejor beneficio en términos de calidad ambiental. La tarea de seleccionarlos demanda, aparte de experiencia y criterio, un buen conocimiento científico del "funcionamiento" de los sistemas físico-biológicos en general, así como de la manera específica en que ellos actúan en un ámbito geológico y geográfico determinado.
En el presente trabajo se analiza la interacción de las aguas del drenaje superficial y subterráneo con las zonas de alteración hidrotermal, las excavaciones mineras subterráneas y a cielo abierto, y los depósitos de residuos minero-metalúrgicos. También se considera la evaluación de impactos ambientales de proyectos mineros y el importante tema de los planes de cierre de minas, que se conecta de modo central con las materias antes señaladas (Mitchell, 2000). Lo anterior, con la finalidad de proponer criterios de priorización que permitan dirigir los esfuerzos de monitoreo y protección ambiental con la mayor eficacia y eficiencia posible, en materias de contaminación del drenaje, por el efecto de la actividad minera pasada, presente o futura.
Minería y residuos mineros en Chile
Aunque la minería se practica en el territorio chileno desde tiempos pre-hispánicos, su expresión en el paisaje y en la generación de efluentes y residuos se manifiesta desde la primera mitad del siglo XIX, cuando cobra importancia la explotación del cobre, la plata y el oro. A fines del mismo siglo se suma la del salitre (nitratos), cuyos requerimientos de leña afectaron a los bosques de tamarugo y cuyas escombreras son aún parte del paisaje de la depresión occidental del desierto de Atacama en las regiones I y II (la Pampa). Sin embargo, es a principios del siglo XX, con la explotación de los grandes yacimientos porfíricos de cobre, que la minería dejará su huella ambiental más profunda. Ella se manifiesta tanto en las grandes excavaciones a cielo abierto, como en los depósitos de residuos que las acompañan, aparte, de los efluentes líquidos y gaseosos generados.
Posteriormente, en el curso del mismo siglo, se añade la minería de los grandes yacimientos de hierro, y la de los depósitos de tamaño medio de cobre. Además, a fines de los 70’ cobra importancia la minería del oro, con el descubrimiento del yacimiento de El Indio, seguido de cerca por los del Distrito Maricunga (Atacama). El presente trabajo se centrará en los posibles efectos contaminantes de la minería del cobre y del oro sobre los recursos hídricos. Ello, considerando que por su mineralogía, las explotaciones de hierro revisten poco riesgo y las de otros metales, como Ag y Mn representan un escaso volumen. Al respecto, en materia metálica, Chile tiene "mucho de poco" y por lo tanto poca variedad de metales (lo que en términos ambientales puede ser una ventaja).
Los efectos ambientales de la minería en general comienzan con las excavaciones subterráneas o a cielo abierto. Las primeras, menos visibles, pueden en cambio aumentar en órdenes de magnitud la superficie de roca expuesta a reacciones químicas roca/agua/aire. En el caso de los yacimientos metálicos sulfurados, ello favorece la generación de drenaje ácido y la consiguiente solubilización de metales pesados, que pasan así al drenaje subterráneo y de éste al superficial. Las excavaciones a cielo abierto, aunque exponen una superficie menor a las mismas reacciones, pueden dar lugar formación de un pequeño lago al término de la vida de la mina, que también puede convertirse en un intermediario en la contaminación del drenaje subterráneo.
Metales pesados, minería, y contaminación del agua
Tres factores tienen especial importancia en la transferencia de metales pesados desde las minas a los residuos mineros, y de ahí al drenaje subterráneo o superficial. Aparte de las propiedades químicas intrínsecas del elemento, ellos son su forma mineralógica, la superficie de interacción sólido/agua, y el nivel (superficial o subterráneo) de la interacción, los que a su vez influyen también en las características físico-químicas del agua. La mineralogía es importante por la distinta estabilidad de los diferentes minerales frente al ataque químico, así como porque la presencia de pirita puede dar lugar a la generación de drenaje ácido lixiviante (Nicholson, 1994). La superficie de interacción es también un factor principal, porque de su extensión dependerá la efectividad del traspaso. Ya hemos mencionados al respecto como la minería subterránea incrementa grandemente esa superficie. También el fracturamiento de las rocas tiene un efecto similar, especialmente cuando las fracturas abiertas facilitan el paso de las soluciones. En el caso de depósitos de residuos, la granulometría del material tiene un efecto decisivo a ese respecto (Ritchie, 1994). En lo referente al nivel de interacción (superficial o subterránea) el factor decisivo corresponde al grado de oxigenación del agua, que posibilita la oxidación de los sulfuros y por consiguiente la solubilización de los metales. Al respecto, hay que considerar que las aguas de la zona vadosa (entre la superficie del terreno y el nivel freático) son relativamente oxidantes, disminuyendo el oxígeno disuelto bajo el nivel freático (Blowes, 1994; Robertson, 1994).
Ciencia y Tecnología
Desde hace más de dos mil años, los egipcios ponían piedras ferromagnetizadas sobre sus cabezas para tratar migrañas y otras afecciones neurológicas. Son los primeros antecedentes de las ventajas del electromagnetismo en la salud. Pero no fue hasta 1985 que se creó un prototipo estimulador magnético para terapias. Hoy existen varios modelos que estimulan la superficie del cerebro para el tratamiento de depresión o esquizofrenia, entre otros trastornos cerebrales. El último de ellos se llama DeepTMS, fue creado por expertos del Departamento de Neurociencias de la U. Ben Gurión de Neguev (Israel) y no sólo permite actuar con mayor precisión sobre la zona cerebral que se quiere activar o desactivar, sino que llega a mayor profundidad: 6 cm bajo el cráneo. Los actuales llegan a uno o dos centímetros.
En Europa, su uso ya fue aprobado por la Comisión Europea y en EEUU está en trámite en la FDA. Hasta la fecha, diversos estudios -entre ellos uno con 22 centros en ocho países- revelan beneficios para tratar depresión, desorden bipolar, estrés postraumático, al-zheimer y parkinson, entre otros. Ahora llegó a Chile, donde al menos 60 pacientes con depresión la han probado: 40 de ellos con buenos resultados.
Raúl Riquelme, siquiatra, presidente de la Sociedad Chilena de Salud Mental y director médico de NeuroMagnetics (representante en Chile de la desarrolladora de esta tecnología) explicó que cada enfermedad tiene un protocolo con una cantidad de sesiones. Para parkinson se usan hasta 10 sesiones; en depresión y síntomas negativos de la esquizofrenia, 20. Pero en pacientes más graves, se deben hacer más.
Cada bobina (casco) de DeepTMS es diferente, según la patología a tratar. “Generalmente, a las dos semanas de tratamiento, ya se pueden ver resultados. En total, hay 20 bobinas con patentes aprobadas, en Chile tenemos cinco, pero llegarán más”, dijo Jimmy Stehberg, director científico de NeuroMagnetics.
Luis Risco, director de la Clínica Siquiátrica de la U. de Chile, dice que la terapia todavía es considerada un procedimiento experimental, aunque no se ha visto que provoque daños secundarios.
El siquiatra de servicio de urgencia, Mario Quijada, piensa distinto. Cree que es “un extraordinario invento” que permitirá avanzar mucho, porque es una forma de tratar a un paciente en forma limpia, no invasiva y sin efectos adversos. “Aunque no significa dejar de tomar medicamentos, los pacientes tienen menos rechazo a la terapia, porque pueden tomar menos dosis y dejar de sentirse incómodos, decaídos o inquietos. Además, los resultados se ven relativamente rápido”, dice.
Estudios en Chile
En Chile, los primeros protocolos se han hecho con pacientes con depresión. Riquelme dice que desde 2009 que este sistema está aprobado en Europa para su uso en esta patología. De acuerdo a las investigaciones realizadas por la U. de Tel Aviv, en depresión mayor esta terapia tiene tasas de remisión (ausencia de síntomas) superiores al 50% a la quinta semana de tratamiento.
El estudio hecho en Chile mostró que los síntomas disminuían significativamente (melancolía y ansiedad). En un mes de tratamiento, el 86% de ellos decían no tener síntomas de depresión. Cuando se les aplicó la escala Hamilton de medición, se vio que a mitad del tratamiento, de 20 puntos que tenían al inicio, estaban en la mitad y al final tenían apenas 5,3 puntos. Con siete puntos se considera que hay depresión.
En parkinson se están haciendo los primeros protocolos con pacientes chilenos, por lo que todavía no hay resultados, y en al- zheimer están prontos a empezar. Estudios de la U. de Tel Aviv mostraron que en parkinson la técnica no mejora la enfermedad, pero redujo los movimientos y temblores en el 40% de los pacientes tratados. Mientras que el Centro Médico Ichilov en Israel realizó un estudio con 40 pacientes con al- zheimer, de los cuales los que recibieron la más alta frecuencia reportaron una clara mejoría en su deterioro cognitivo. Ahora esperan realizar un ensayo multicéntrico para verificar los resultados.
Llega tecnología que estimula el cerebro para tratar depresión y alzheimer | Ciencia&Tecnología |
fuente : La Tercera
En Europa, su uso ya fue aprobado por la Comisión Europea y en EEUU está en trámite en la FDA. Hasta la fecha, diversos estudios -entre ellos uno con 22 centros en ocho países- revelan beneficios para tratar depresión, desorden bipolar, estrés postraumático, al-zheimer y parkinson, entre otros. Ahora llegó a Chile, donde al menos 60 pacientes con depresión la han probado: 40 de ellos con buenos resultados.
Raúl Riquelme, siquiatra, presidente de la Sociedad Chilena de Salud Mental y director médico de NeuroMagnetics (representante en Chile de la desarrolladora de esta tecnología) explicó que cada enfermedad tiene un protocolo con una cantidad de sesiones. Para parkinson se usan hasta 10 sesiones; en depresión y síntomas negativos de la esquizofrenia, 20. Pero en pacientes más graves, se deben hacer más.
Cada bobina (casco) de DeepTMS es diferente, según la patología a tratar. “Generalmente, a las dos semanas de tratamiento, ya se pueden ver resultados. En total, hay 20 bobinas con patentes aprobadas, en Chile tenemos cinco, pero llegarán más”, dijo Jimmy Stehberg, director científico de NeuroMagnetics.
Luis Risco, director de la Clínica Siquiátrica de la U. de Chile, dice que la terapia todavía es considerada un procedimiento experimental, aunque no se ha visto que provoque daños secundarios.
El siquiatra de servicio de urgencia, Mario Quijada, piensa distinto. Cree que es “un extraordinario invento” que permitirá avanzar mucho, porque es una forma de tratar a un paciente en forma limpia, no invasiva y sin efectos adversos. “Aunque no significa dejar de tomar medicamentos, los pacientes tienen menos rechazo a la terapia, porque pueden tomar menos dosis y dejar de sentirse incómodos, decaídos o inquietos. Además, los resultados se ven relativamente rápido”, dice.
Estudios en Chile
En Chile, los primeros protocolos se han hecho con pacientes con depresión. Riquelme dice que desde 2009 que este sistema está aprobado en Europa para su uso en esta patología. De acuerdo a las investigaciones realizadas por la U. de Tel Aviv, en depresión mayor esta terapia tiene tasas de remisión (ausencia de síntomas) superiores al 50% a la quinta semana de tratamiento.
El estudio hecho en Chile mostró que los síntomas disminuían significativamente (melancolía y ansiedad). En un mes de tratamiento, el 86% de ellos decían no tener síntomas de depresión. Cuando se les aplicó la escala Hamilton de medición, se vio que a mitad del tratamiento, de 20 puntos que tenían al inicio, estaban en la mitad y al final tenían apenas 5,3 puntos. Con siete puntos se considera que hay depresión.
En parkinson se están haciendo los primeros protocolos con pacientes chilenos, por lo que todavía no hay resultados, y en al- zheimer están prontos a empezar. Estudios de la U. de Tel Aviv mostraron que en parkinson la técnica no mejora la enfermedad, pero redujo los movimientos y temblores en el 40% de los pacientes tratados. Mientras que el Centro Médico Ichilov en Israel realizó un estudio con 40 pacientes con al- zheimer, de los cuales los que recibieron la más alta frecuencia reportaron una clara mejoría en su deterioro cognitivo. Ahora esperan realizar un ensayo multicéntrico para verificar los resultados.
Llega tecnología que estimula el cerebro para tratar depresión y alzheimer | Ciencia&Tecnología |
fuente : La Tercera
Tercer Informe Métodos y Herramientas de Investigación Prospectiva
Material de información
Métodos y herramientas de investigación prospectiva
Planes y estudios Prospectivos SANTANDER ( VIDEO)
Métodos y herramientas de investigación prospectiva
"El análisis de impacto de tendencias es un método de pronóstico que permite realizar extrapolaciones de tendencias históricas a fin de modificarlas en vista de las expectativas acerca de ciertos eventos futuros. Este método permite que un analista, interesado en seguir una tendencia determinada, incluya y analice de manera sistemática los efectos de los posibles eventos futuros que se consideran importantes."
Análisis de Secuencias Tecnológicas
"En términos generales, el TSA visualiza el futuro como una serie de pasos o decisiones (nodos) causales, interrelacionados, que conducen hacia algún estado futuro. El tiempo entre los nodos se presenta en forma probabilística. Con estas estimaciones, es posible computar el tiempo requerido para alcanzar el sistema deseado teniendo en cuenta su probabilidad en función del tiempo. Las aplicaciones actuales se han centrado en sistemas basados en la tecnología; los nodos en estas redes han sido tecnologías intermedias. Las redes conducen a un sistema final que depende de las tecnologías intermedias. El diseño final de una red tecnológica y los intervalos de tiempo entre los nodos se determinan en general realizando una serie de entrevistas exhaustivas con expertos. Las redes TSA nos recuerdan superficialmente a las redes PERT; sin embargo, el método TSA posee dos características distintivas: 1) su capacidad para incluir tecnologías alternativas, utilizando técnicas booleanas; y 2 el uso de estimaciones probabilísticas del tiempo transcurrido entre nodos tecnológicos.
Análisis Estructural
"El análisis estructural, además del método de escenarios, es una de las herramientas más usadas en el estudio de futuros. El análisis estructural, inspirado en el enfoque sistémico, experimentó un verdadero impulso recién a fines de la década de los sesenta. Probablemente fue Jay Forrester, a través de sus trabajos sobre modelos de dinámicas industriales y luego, dinámicas urbanas (1961), quien dio origen a las primeras justificaciones del análisis estructural. Este enfoque alcanzó su apogeo con la publicación de los informes "Club of Roma (Club de Roma)", y en particular "Limits of Growth (Límites del crecimiento)" cuyo carácter maltusiano sería profundamente desmentido por los hechos. Al mismo tiempo, la necesidad de analizar variables múltiples y homogéneas, cualitativas y cuantitativas, impulsó a los precursores del análisis estructural a utilizar otros modos de representación basados en matrices y gráficos. Con esta perspectiva, Wanty y Federwish (en "Global Models for Business Economics (Modelos Globales para la Economía de Negocios)" aplicaron este enfoque en los casos de una compañía de hierro y acero y una empresa de transporte aéreo. Poco después Teniere-Buchot (1973), bajo la supervisión de Wanty, analizó el sistema de "agua" y publicó un artículo sobre un modelo referido a la Política de Polución del Agua. En el mismo periodo, Kane introdujo el modelo KSIM que si bien está íntimamente relacionado con las dinámicas industriales de Forrester es, no obstante, un método de análisis estructural. Por su parte, Robets condujo trabajos para la Fundación Nacional de Ciencias de Estados Unidos a fin de descubrir relaciones indirectas, con aplicaciones en la energía y la polución relacionada con la energía en el área del transporte. En 1974 Godet y Duperrin sugirieron un método operacional para clasificar los elementos de un sistema, en el marco de un estudio de futuros sobre la energía nuclear en Francia. Este método conforma casi en su totalidad el análisis estructural. Además, a pesar de los numerosos estudios realizados a partir de entonces, este método originó un cierto modelo standard en este campo. Desde mediados de 1980 el análisis estructural experimentó un creciente número de aplicaciones en varias esferas, tanto en empresas como en temas relacionados con la sociedad.
El AHP esta diseñado para resolver problemas complejos de criterios múltiples. El proceso implica que quién tome decisiones proporcione evaluaciones subjetivas respecto a la importancia relativa de cada uno de los criterios y que después especifique su preferencia frente a cada una de las alternativas de decisión para cada criterio. El resultado del AHC es una jerarquización con prioridades que muestran la preferencia global para cada una de las alternativas de decisión.
Análisis Morfológico
El análisis morfológico es un método de "ideation" (entendemos por este término: "la generación de ideas") de probada eficacia que da lugar a la "invención organizada". La técnica permite la existencia de dos elementos fundamentales: el análisis sistemático de la estructura actual y futura de un área de la industria (o dominio), así como también los vacíos fundamentales en esa estructura. Y, un fuerte estímulo para la invención de nuevas alternativas que llenen estos vacíos y cumplan los requisitos impuestos."
Análisis de Actores
"El análisis de los movimientos de los actores, como lo proponemos en el método MACTOR, comprende las siguientes seis etapas: 1. Anotar los planes, motivaciones, limitaciones y medios de acción de cada actor (elaborar la tabla de la "estrategia de los actores"). 2. Identificar las cuestiones y objetivos estratégicos asociados con estos campos de batalla. 3. Posicionar a cada actor en cada campo de batalla e identificar las convergencias y divergencias. 4. Clasificar los objetivos de cada actor y evaluar las posibles tácticas (interacción de posibles convergencias y divergencias) en términos de las prioridades de sus objetivos. 5. Evaluar las relaciones de poder y formular recomendaciones estratégicas para cada actor, según las prioridades de los objetivos de cada actor y los recursos disponibles. 6. Realizar preguntas claves sobre el futuro, es decir, formular hipótesis sobre las tendencias, eventos y discontinuidades que caracterizarán la evolución del equilibrio de poder entre los actores. En torno a estas preguntas claves y a las hipótesis relativas a las respuestas correspondientes, se construirán los escenarios."
Árbol de Pertinencias
El análisis del árbol de pertinencias ha demostrado ser un estímulo intelectual muy importante para garantizar que un determinado problema o cuestión se elabore en detalle y que las relaciones importantes entre los ítems considerados se reflejen tanto en situaciones actuales como potenciales. Un árbol de pertinencias se asemeja mucho a un cuadro organizacional y presenta información en una estructura jerárquica. La jerarquía comienza en un elevado nivel de abstracción y desciende en grados de detalle cada vez mayores en los subsiguientes niveles del árbol. Las entradas en un nivel determinado, cuando se consideran de manera conjunta, están destinadas a describir cabalmente el ítem respecto del cual están relacionadas en el nivel inmediato superior. Teóricamente, cada entrada en un nivel determinado es ortogonal; es decir, que no debe superponerse con ninguna otra entrada, de este modo se torna exclusiva respecto de otras entradas. Por último, en un nivel determinado los ítems deberían analizarse "según el mismo punto de vista". En la práctica, es frecuente que estas condiciones no puedan alcanzarse.
Diseño de Escenarios Múltiples
"Un escenario es una herramienta de análisis político que describe un conjunto posible de condiciones de futuro. En general, el término escenario ha sido usado en dos diferentes sentidos: el primero, describir una foto instantánea en el tiempo o de condiciones de variables importantes en algún tiempo particular en el futuro; el segundo, describir una historia futura –esto es, la evolución desde las presentes condiciones a uno o varios futuros-. La última aproximación es generalmente preferida debido a que ella puede esquematizar la cadena causal de decisiones y circunstancias que conduce desde el presente. Los escenarios más usados son los que desarrollan las condiciones de variables importantes a través del tiempo. En esta aproximación, el apuntalamiento cuantitativo enriquece la narrativa de la evolución de las condiciones o de las variables; las narrativas describen los eventos y tendencias importantes que configuran las variables. Cuando los escenarios son empleados en el análisis de políticas, la naturaleza del curso evolucionario es frecuentemente importante puesto que puede modificar dichos cursos. En estudios políticos, familias de escenarios son utilizadas habitualmente para ilustrar las consecuencias de diferentes supuestos iniciales, diferentes condiciones de evolución, o ambos enfoques."
Mapa Contextual
"El mapeo contextual se incluye en un proceso mayor de manejo de cuestiones y planificación estratégica. William Renfro, Presidente de la Asociación de Manejo de Cuestiones, identifica cuatro etapas del proceso de manejo de cuestiones: Identificar posibles cuestiones futuras mediante la exploración del horizonte y más allá de los límites del ambiente del entorno y medios operativos actuales y previstos de la empresa (o de la Nación); 2. Investigar los impactos previos, futuros y posibles de estas cuestiones; 3. Evaluar las cuestiones relativas a las operaciones de anticipación y a los programas de acción; y 4. Desarrollar estrategias para las operaciones de anticipación."
Método LAMP. (Método analítico para la predicción de Lockwood)
LAMP asume el futuro no es nada más que la suma total de todas las interacciones de "libre albedrío", tanto a nivel individual como a escala internacional. Si bien no es un método infalible para predecir el futuro, LAMP el analista da una versión más potente método para organizar toda la información disponible basada en las percepciones de los actores nacionales y lo utiliza para hacer las predicciones en cuanto a que se alternan el futuro es más probable que se produzca en un momento dado en el tiempo.
Métodos de Participación
"Los planificadores profesionales con frecuencia se sienten amenazados ante la posibilidad de una mayor intervención del público en la elaboración de los planes. Los detalles en un plan elaborado por un departamento de planificación superan ampliamente las conclusiones de un proceso público. Pero los planificadores a menudo se mantienen alejados de las opiniones de la gente. Si el proceso público establece los criterios para la planificación (p. ej., las aspiraciones), los planificadores pueden utilizar luego estas pautas generales sin sentir que su territorio ha sido invadido. De esta manera, los planes pueden ser evaluados en la próxima etapa del proceso público, creando un vínculo entre los planificadores y aquellas personas a las cuales está dirigida la planificación. Entre los métodos de participación se encuentran: los Grupos de enfoque y encuestas de opinión, Charrette, SYNCON, Delphi público, Conferencia de búsqueda de futuros y el Groupware."
Método de la Analogía
La mayoría de los métodos de pronóstico utilizan algún tipo de modelo que se supone reproduce las relaciones entre los diversos aspectos, atributos, y variables de los acontecimientos que se predicen. El más simple método de adquirir tal modelo está disponible si podemos trovar un sistema "foráneo" que ha alcanzado un estadio relativamente posterior o más maduro en el desarrollo que el sistema "doméstico" sobre el que estamos pronosticando. Será a menudo imposible encontrar un sistema extranjero que sería absolutamente idéntico al sistema doméstico. Habitualmente el sistema foráneo, o su entorno, tienen varios rasgos que difieren del que se va a predecir, lo que va en detrimento de la credibilidad de nuestra predicción. Así que tendremos probablemente que hacer cierto número de correcciones. Una diferencia típica entre los sistemas se refiere a su tamaño (junto a la obvia diferencia de que el sistema "foráneo" ha sido medido en el pasado y el sistema "doméstico" ha de continuar en el futuro). El proceso de pronosticar con analogía es: Explora el desarrollo reciente del sistema doméstico. Encuentra un sistema extranjero que ha experimentado el desarrollo similar. Consiga los datos de él. Descubra el punto del tiempo t cuando el sistema extranjero estaba en un estado semejante que el sistema doméstico ahora está. Compense para las diferencias entre los sistemas caseros y extranjeros, eliminando e.g. la diferencia del tamaño multiplicando los datos del sistema extranjero por la proporción de los tamaños. Los datos del sistema extranjero, a partir del tiempo t hasta presente, se pueden ahora tomar como pronóstico para el sistema doméstico, comenzando del presente.
Modelización de decisiones
"La modelización de las decisiones intenta desarrollar un modelo del proceso de decisión aplicado por quienes deben adoptar decisiones importantes dentro del sistema. Este enfoque supone que las personas responsables de tomar decisiones consideran una serie de diversos factores al comparar distintas alternativas y que algunos de estos factores son más importantes que otros. Aunque estas personas no hagan una lista de estos factores de decisión ni consideren su importancia de manera consciente, están implícitos en el valor percibido de las alternativas. Para elegir la "mejor" alternativa, la persona debe juzgar qué es lo que constituye mucho valor y poco valor. Una alternativa de bajo costo puede ser considerada más valiosa que otra con un costo más elevado, mientras que una alternativa con mayores beneficios puede ser más valiosa que una con menos beneficios. ¿Cómo se compara una tecnología de costo elevado y grandes beneficios con una alternativa de bajo costo y escasos beneficios? Para contestar esta pregunta, la persona que tomará las decisiones debe determinar cuán importantes son los costos y beneficios. La alternativa de bajo costo y escasos beneficios quizá se perciba como la "mejor" alternativa, si el costo es mucho más importante que los beneficios; o, a la inversa, si los beneficios son más importantes."
Modelización Estadística
"La modelización estadística asume que la información contenida en datos históricos puede extraerse, puede analizarse, y puede reducirse a una o más ecuaciones que pueden usarse para reproducir modelos históricos. Las técnicas usan la matemática de estadísticas para profundizar el conocimiento de la causalidad en sistemas complejos. Una ecuación o conjunto de ecuaciones pueden reproducir la línea de tiempo histórica de una variable, por ejemplo, la población. De esta manera, cuando una fecha anterior se usa en una ecuación que describe población, la respuesta generada estará muy cerca de la población real que existe en este momento. Para prever "la población futura," simplemente sustituimos una fecha futura en la misma ecuación. Este método, sin embargo, tiene algunas serias implicaciones: Toda la información necesaria para pronosticar aspectos del futuro deseados, está contenida en datos históricos selectivos; La estructura del modelo reproduce válidamente la estructura de la vida real del sistema que dio lugar a los datos históricos; La estructura continua del sistema que dio lugar a los datos históricos será inmutable; y son utilizados pronósticos determinísticos (es decir, una sola posibilidad)." ... Los métodos de modelización estadística incluyen: análisis de series de tiempo; análisis de regresión; los modelos de multi-ecuación (por ejemplo, en econometría); y la modelización de simulación."
Modelos Sistémicos
"El funcionamiento actual de los sistemas tiene raíces en distintas disciplinas tradicionales. De la matemática derivan algunas técnicas que se aplicarán a problemas de incertidumbre y complejidad. De la biología provienen las descripciones de los procesos que originan la supervivencia, adaptación y crecimiento. De la neurofisiología deriva la comprensión de cómo el cerebro procesa las percepciones y crea patrones. De la física deriva una mayor comprensión de la incertidumbre, la relatividad y la complementariedad. De la teoría de la comunicación deriva una comprensión más profunda de los canales de comunicación y la diferencia entre la información y el ruido. La psicología y las ciencias sociales contribuyen a comprender el comportamiento de las personas en las familias, organizaciones y sociedades. En conjunto, estas disciplinas brindan modelos que son bien comprendidos y que pueden generalizarse y aplicarse a una gran cantidad de situaciones diferentes en tanto pueda identificarse y probarse sudinámica común. Los adelantos afines en el campo de la computación brindan una capacidad informática muy superior a aquella que podría realizarse manualmente y hacen uso extensivo de los modelos cuantificables posibles. En un área diferente, los conocimientos de los sistemas también se han aplicado a las artes creativas." ... Entre los métodos sistémicos podemos encontrar los siguientes: "Planeamiento Interactivo, Teoría de los Sistemas Vivientes (o de los sistemas vivos), Investigación Operativa, Sistemas Socio-Técnicos, Metodología de Sistemas Blandos, Dinámica Sistémica (o de los sistemas), Gerenciamiento de Calidad Total (TQM), Modelo de Sistemas Viables (o de viabilidad sistémica)
Pronóstico Normativo
Las instituciones, organizaciones, y gobiernos siempre se han interesado en el futuro a largo plazo. El pronóstico normativo es un aspecto mucho más limitado de esa mirada desestructurada hacia el futuro. La característica principal que distingue al pronóstico normativo de cualquier otro tipo de especulación o enunciación de metas son sus aspectos sistemático, exhaustivo y público (público, en este caso, en el sentido de que está abierto al análisis y revisión por parte de lagente además de los planificadores y analistas). El pronóstico normativo consta de dos partes esenciales. Primero, el enunciado de una meta o conjunto de metas para un determinado tiempo o momento; segundo, el análisis detallado de la manera de alcanzar dicha meta o metas.
Pronóstico genial, intuición y visión
”La intuición puede ser la única fuente útil de información para pronosticar el comportamiento de un sistema caótico. Dave Greenspan, quien escribió una parte del informe sobre "Integración y Fronteras de los Métodos" de esta serie, especula que el cerebro puede haber desarrollado esta habilidad como respuesta evolutiva al caos. Pronosticar el curso futuro de una serie temporal caótica por medios convencionales es inútil, ya que pequeñas diferencias en las condiciones iniciales conducen a resultados muy diferentes. Aún así, en la vida de los seres humanos, siempre han sido necesarios los pronósticos (por ejemplo, para evitar el peligro); entonces, posiblemente la evolución del cerebro permita que la mente arribe a soluciones intuitivas para pronosticar el comportamiento de sistemas caóticos. Greenspan sugiere que la mente puede "ver" el orden oculto de un sistema caótico que elude la aritmética. Por lo tanto, si la teoría del caos se hace más dominante en los asuntos mundiales, quizá debamos considerar a la intuición con mayor seriedad.”
Rueda Del Futuro
La Rueda del Futuro es una manera de organizar el pensamiento y los cuestionamientos sobre el futuro; es una clase de brainstormingestructurado. El nombre de una tendencia o evento se escribe en el medio de un pedazo de papel; entonces los pequeños rayos son como arrastrados desde el centro de la rueda hacia afuera. Se escriben impactos o consecuencias primarios al final de cada rayo. Luego, los impactos secundarios de cada impacto primario forman un segundo anillo de la rueda. Este efecto de onda continúa hasta obtener un cuadro o diseño útil en el que estén claras las implicaciones del evento o tendencia. La Rueda del Futuro es normalmente empleada para: Pensar mediante los posibles impactos de tendencias actuales o de potenciales eventos futuros; Organizar pensamientos sobre eventos o tendencias futuros; Crear pronósticos en el interior de escenarios alternativos; Mostrar complejas relaciones mutuas; Desplegar otras investigaciones de Futuro; Desarrollar multi-conceptos; Nutrir una perspectiva de conciencia de futuro; y Ayudar en grupos de brainstorming.
Simulación y Juegos en el Estudio de Futuro
Una simulación es toda actividad que proyecta una situación distinta en el tiempo y/o lugar, generalmente realiza una extrapolación del mundo real a la situación hipotética. Una simulación, aunque no se trate necesariamente de un juego, se basa en un escenario que con frecuencia tiene la forma de un modelo ... Los juegos se relacionan con las simulaciones de muchos modos. Lassimulaciones pueden ser las bases de los juegos, y con frecuencia lo son. Unjuego es toda actividad con un objetivo que ubica al jugador, ya sea que dicho jugador sea un instrumento, una persona, varias personas, un grupo o distintos grupos, en competencia contra otros jugadores o contra pautas. Cuando se plantean las pautas de éxito (como, "Veamos si la tarea puede estar terminada en unos pocos minutos ...." o "Aquel que pueda construir una torre de más de dospies de altura con estos bloques de construcción, gana."), entonces las simulaciones o varias simulaciones paralelas también se convierten en juegos.
Sistema y Matriz de Impactos Cruzados
"El método de impacto cruzado es un enfoque analítico de las probabilidades de un acontecimiento en un conjunto pronosticado. Estas probabilidades pueden ajustarse en virtud de las opiniones respecto de las interacciones potenciales entre los acontecimientos pronosticados. Sabemos por experiencia que la mayoría de los eventos y evoluciones de alguna manera se relacionan con otros eventos y evoluciones. Un evento único, tal como la generación de energía del primer reactor atómico, fue posible por una compleja historia previa de "sucesos" científicos, tecnológicos, políticos y económicos. A su vez, en su calidad de precedente, la generación de energía del primer reactor atómico influenció numerosos eventos y evoluciones posteriores. Numerosas ocurrencias aparentemente distintas y sin relación, permiten o dan lugar a eventos y evoluciones singulares. De este flujo interconectado surgen efectos cada vez mayores que interactúan con otros eventos y evoluciones. Es difícil imaginar un evento sin un antecedente que lo hiciera posible o que lo influenciara, o imaginar un evento que luego de ocurrido no dejara marcas. Esta interrelación entre los eventos y evoluciones se denomina "impacto cruzado"."
Técnica “Delphi”
El renacimiento moderno de la investigación de futuros comenzó con la Técnica Delphi en la RAND, de Santa Mónica, California, un verdadero "tanque de pensamiento" a principios de los años sesenta. Las preguntas de los pensadores de Rand, en ese momento, estaban principalmente relacionadas con el potencial militar de la tecnología futura y con potenciales problemas políticos y su resolución. Los pronósticos aproximados que podrían usarse sobre tales aplicaciones eran bastante limitados e incluían juegos de simulación (individuos que representan las partes, sean naciones o facciones políticas, p. ej.) y pronóstico genial (un solo experto o un panel experto que aborda los problemas que preocupan). La Modelización de Simulación Cuantitativa era bastante primitiva, y las computadoras que harían tales técnicas cuantitativas finalmente prácticas, estaban a una distancia de una década. Los investigadores de RAND exploraron el uso de paneles de expertos para direccionar los pronósticos sobre determinados asuntos. Su razonamiento fue algo así: es mucho más probable que la opinión de los expertos, particularmente cuando ellos están de acuerdo, sea más correcta que la de quienes no sonexpertos, sobre todo en interrogantes pertenecientes a su campo o especialidad. Sin embargo, ellos encontraron que si se reunía a los expertos en una sala de conferencias, podían introducirse factores que pueden tener poco que ver con el problema entre manos. Por ejemplo, la más fuerte voz en lugar del argumento más legítimo puede llevar el control y predominar; o, una persona puede ser renuente a abandonar una opinión suya previamente declarada delante de sus pares. Como con pensadores normales, el “toma y da” de tales confrontaciones cara-a-cara toma a menudo la forma de un verdadero debate.
Técnica “FAR” (Field Anomaly Relaxation)
“Esta técnica, clasificada también en el grupo de juicios estructurados, ha sido propuesta por RHYNE como una elaboración perfeccionada del diseño de escenarios múltiples, usada para bosquejar futuros patrones globales. Su autor la denominó “field anomaly relaxation” – pues estructura las opiniones expertas en distintos campos de interés. En su trabajo “Technological forecasting and social chance” emplea la abreviatura FAR toda vez que la nombra, temperamento que adoptamos. La técnica FAR parte del presupuesto que el mundo, ya sea en el presente como en el futuro, no puede ser descrito por un solo aspecto – como, por ejemplo, el desarrollo económico – sino que es indispensable pensarlo sistémicamente, en términos de actitudes e interacciones políticas, dimensiones económicas, conducta social y cambios tecnológicos, agregando otros campos, de acuerdo con el problema específico bajo análisis, como las influencias externas, los compromisos regionales y otros, según sea procedente. Cada uno de estos ítems o descriptores es un campo ( field ). RHYNE estima que con estos instrumentos se pueden lograr una descripción del mundo más rica y estimulante. La técnica FAR, sin embargo, pretende ser algo más que una mera descripción, ya que también intenta visualizar los posibles futuros de los escenarios examinados."
Técnica Bayesiana
El teorema de Bayes nos permite la determinación de las llamadas probabilidades revisadas, asociadas a un conjunto dado de hipótesis (escenarios posibles) mutuamente excluyentes, como consecuencia de evidencias (hechos) observados. Estas probabilidades (que constituyen el insumo básico del modelo) son la estimación de ocurra un evento determinado sobre la base de que la hipótesis (el escenario) es cierto y de que, además, se ha verificado la ocurrencia de otros hechos o eventos. Por esto su interpretación tiene que ser muy clara a fin de evitar errores conceptuales que invaliden el uso de esta técnica. Este método permite hacer inferencias acerca de la probabilidad de ocurrencia de un escenario sobre base de las evidencias observadas. Por ello es un instrumento idóneo para el monitoreo y seguimiento de situaciones de interés. En este sentido, juega un papel fundamental como herramienta de alerta ante la ocurrencia de eventos esperados o no. De acuerdo con el Manual de Metodologías de ONUDI, el modelo bayesiano debería seguir la siguiente secuencia de pasos: Percibir y evaluar una situación a la luz de las evidencias y acontecimientos observados. Formular los escenarios probables (hipótesis alternativas) y se les asigna una probabilidad subjetiva inicial. Es importante recordar que estos escenarios deben cumplir con los requisitos de exhaustividad y exclusión mutua. Iniciar un proceso de seguimiento y monitoreo de todos los eventos (acontecimientos) que inciden en el comportamiento de las tendencias. Ajustar las probabilidades de ocurrencia asignada a cada escenario mediante el método de Bayes y sobre la base de las evidencias. Realizar los gráficos de tendencias a partir de los cálculos realizados tomando como base los juicios de valor expuestos por los analistas. Evaluar la necesidad de "dar el alerta" a través del análisis de los gráficos de tendencias en cuanto a las posibilidades de ocurrencia de cada escenario. De ser necesario "dar el alerta"; el mismo tendrá que fundamentarse de manera lógica y convincente en las evidencias obtenidas hasta el momento. La alerta debería servir de base para una toma de decisiones oportuna ante la situación planteada.
SUEÑO DE FUGA Trailer - Subtítulos en Español
Unas de mis Películas Favoritas, estas son las películas que hay que ver antes de morir
sábado, 8 de diciembre de 2012
Algo Sobre Mi
MI MAYOR PASIÓN LA MÚSICA
MI FAMILIA ( Madre ( Elizabeth), Hermanos ( Alexa, Gonzalo), Padre ( Andres), yo )
CON AMANDA MI SOBRINA
dejo algunos links de mi interes!
YOUTUBE mi canal de youtube
BLOGSPOT! donde por algun tiempo comparti musica para el resto del mundo
Tablaturas paginas de ayuda para aprender canciones en guitarra, bajo
AUDAX ITALIANO mi euipo favorito
CUEVANA ver Series y Peliculas Online
blogs para descargar música ( PunkRock, Punk Melodic Fast, Rock, SkaPunk )
Comparto unos blog para aquellos que desean descarar musica de descarga directa
Tambien encontraran informacion sobre bandas, discografias,conciertos,letras, lanzamientos ETC..
Hardcore Pride
Skatepunkers
Short Control
Foro Punk
Under Music
Alternative2Punk
Tambien encontraran informacion sobre bandas, discografias,conciertos,letras, lanzamientos ETC..
Hardcore Pride
Skatepunkers
Short Control
Foro Punk
Under Music
Alternative2Punk
miércoles, 5 de diciembre de 2012
Los 10 inventos de la Nasa que son utilizados a diario en todo el mundo
Tendencias
Los 10 inventos de la Nasa que son utilizados a diario en todo el mundo
Anteojos resistentes a los arañazos: A principios de los 70, en Estados Unidos se les comenzó a exigir a los fabricantes de anteojos que utilizaran plástico en vez de vidrio para la fabricación de los lentes. ¿Sus ventajas? menor precio, ligereza, y mejor absorción de la radiación ultravioleta. El problema surgió cuando los lentes comenzaron a rayarse por el uso o las caídas, aunque por suerte, la Nasa ya había solucionado tal inconveniente en sus cascos espaciales, siempre expuestos a partículas, golpes y suciedad. La oportunidad la tomaría el fabricante de anteojos Foster-Grant para desarrollar gafas de sol diez veces más resistentes a los arañazos, resultando todo un éxito.
Frenillos invisibles: Aunque desde los años 400 y 300 AC ya se buscaban formas para enderezar los dientes y el método se comenzó a idear en el siglo 17, fue sólo en 1889 cuando los frenos o frenillos se consideraron un alternativa válida para la dentadura con problemas. Tuvieron que pasar alrededor de 100 años para que la compañía Ceradyne desarrollara junto a la Nasa la cerámica TPA para proteger las antenas de los rayos infrarrojos de los misiles rastreadores, material que sería tomado por la compañía de diseños dentales Unitek para fabricar un nuevo producto en ortodoncia invisible, más duradero y transparente.
Filtros de agua: A pesar de las conocidas pastillas para convertir la orina en un líquido consumible, la Nasa ya había comenzado a desarrollar los filtros de agua desde los 50, aunque los sistemas eran aún muy complejos y debían soportar situaciones extremas, además de mantener al vital elemento limpio por un tiempo más prolongado. Por ello, se ideó utilizar pequeños trozos de carbón en el interior de los filtros junto a iones de plata, que cumplen la función de neutralizar los patógenos en el agua y evitar el crecimiento de nuevas bacterias.
Los 10 inventos de la Nasa que son utilizados a diario en todo el mundo
Anteojos resistentes a los arañazos: A principios de los 70, en Estados Unidos se les comenzó a exigir a los fabricantes de anteojos que utilizaran plástico en vez de vidrio para la fabricación de los lentes. ¿Sus ventajas? menor precio, ligereza, y mejor absorción de la radiación ultravioleta. El problema surgió cuando los lentes comenzaron a rayarse por el uso o las caídas, aunque por suerte, la Nasa ya había solucionado tal inconveniente en sus cascos espaciales, siempre expuestos a partículas, golpes y suciedad. La oportunidad la tomaría el fabricante de anteojos Foster-Grant para desarrollar gafas de sol diez veces más resistentes a los arañazos, resultando todo un éxito.
Frenillos invisibles: Aunque desde los años 400 y 300 AC ya se buscaban formas para enderezar los dientes y el método se comenzó a idear en el siglo 17, fue sólo en 1889 cuando los frenos o frenillos se consideraron un alternativa válida para la dentadura con problemas. Tuvieron que pasar alrededor de 100 años para que la compañía Ceradyne desarrollara junto a la Nasa la cerámica TPA para proteger las antenas de los rayos infrarrojos de los misiles rastreadores, material que sería tomado por la compañía de diseños dentales Unitek para fabricar un nuevo producto en ortodoncia invisible, más duradero y transparente.
Filtros de agua: A pesar de las conocidas pastillas para convertir la orina en un líquido consumible, la Nasa ya había comenzado a desarrollar los filtros de agua desde los 50, aunque los sistemas eran aún muy complejos y debían soportar situaciones extremas, además de mantener al vital elemento limpio por un tiempo más prolongado. Por ello, se ideó utilizar pequeños trozos de carbón en el interior de los filtros junto a iones de plata, que cumplen la función de neutralizar los patógenos en el agua y evitar el crecimiento de nuevas bacterias.
Suscribirse a:
Entradas (Atom)