Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


Апробация анкет, сопровождающих тестирование учащихся



В процессе разработки анкет, сопровождающих тестирование, нами было проведено два этапа апробации. На первом этапе проверке подлежали такие характеристики анкет, как их понятность и доступность для заполнения респондентами, четкость и однозначность формулировок, а также время, необходимое для заполнения. На втором этапе проводился количественный и качественный анализ ответов респондентов с целью выявления характеристик культурно-образовательной среды, различающих успешные и неуспешные по результатам тестирования школы. При этом основное внимание было сосредоточено на анкете для наших главных респондентов – учащихся (анкета приведена полностью в конце данного раздела).

В рамках первого этапа эта анкета была апробирована в двух пятых и трех четвертых классах общеобразовательной школы.

Все учащиеся справились с вопросами анкеты в течение одного урока. Однако к концу работы у некоторых детей (приблизительно у 25% класса) наблюдалось явное утомление. Они пропускали инструкцию (выбирали не то количество альтернатив, которое указано для данного вопроса), допускали ошибки при заполнении (на последних страницах анкеты больше исправлений, чем на первых), жаловались на длинные таблицы. Кроме того, в ходе работы с анкетой дети задавали экспериментатору много вопросов, которые можно разделить на две группы:

1) вопросы, касающиеся технической стороны заполнения анкеты

2) содержательные вопросы, касающиеся уточнения формулировок или выбора альтернатив ответов

 

Приведем примеры.

Вопросы первой группы: А можно обводить ответ? (А можно зачеркивать то, что не подходит? ). А как сделать, если отметил не то?

Вопросы второй группы: Что такое «живой уголок? ». «Завуч» - это кто? Если я пришла в подготовительный, то с какого класса я учусь в этой школе? Что отвечать, если нам не ставят отметок? Что такое «регулярно»?

После заполнения анкет была проведена беседа с учащимися, направленная на выявление их общего отношения к анкетированию и уточнение проблем и трудностей, возникавших в ходе работы с текстом анкеты. Беседа, в которой младшие школьники выступали в качестве экспертов, позволила зафиксировать несколько позиций, признанных большинством участников. Так, оказалось, что детям удобнее отвечать на вопросы по теме, чем выбирать суждения, соответствующие их точке зрения по этой теме. Также выяснилось, что вопросы, сформулированные во втором лице, предпочтительнее сформулированных от первого лица. Наконец, когда вопрос представлен в табличной форме, то учащиеся быстро забывают контекст, заданный в заголовке таблицы, т.е. теряют смысловой фон вопросов.

Анализ полученных от детей вопросов и замечаний позволил нам скорректировать текст анкеты. Замечания, касающиеся технической стороны заполнения анкеты, заставили нас в ряде случаев заменить табличную форму на последовательный ряд конкретных суждений.

 

На втором этапе предметом апробации выступили дискриминационные возможности анкет, т.е. их чувствительность к тем факторам образовательной среды, которые влияют на эффективность учащихся в решении тестовых задач. Для проведения пилотного анализа мы выбрали среди всех школ, участвовавших в тестировании, две группы по четыре школы в каждой: в первую группу вошли школы, в которых дети продемонстрировали высокие результаты в основных тестах, во вторую - школы, в которых дети продемонстрировали относительно низкие результаты.

Ниже описаны некоторые различия, проявившиеся в ответах на вопросы «Анкеты для учащихся» (см. Приложение 3), в этих двух группах школ.

В школах, где дети продемонстрировали высокие результаты в основных тестах (далее будем их называть «сильными»), в ответе на вопрос 2 («Напиши, какие традиции есть в твоей школе? »), получен большой список разных традиций. Они указаны в произвольном порядке, списки не полностью повторяются. Учащиеся по-разному формулируют название или суть мероприятия, которое причисляют к традициям школы. В школах, где дети продемонстрировали относительно низкие результаты (далее будем называть их условно «слабыми»), в анкетах они также перечислили много разных школьных традиций. При этом списки полностью совпадают как количественно, так и в последовательности перечисления. В большинстве анкет совпадают даже допущенные при перечислении ошибки. Можно предположить, что ответ на этот вопрос писался под диктовку, а сами учащиеся не знали, что ответить.

Показателен пункт 5 в вопросе №4: «В вашей школе много правил, которые должны выполнять все ученики? ». В «сильных» школах получено 82% негативных ответов на этот вопрос. В «слабых» школах – от 90% до 100% всех детей ответили на этот вопрос положительно.

Остановимся на пунктах 3, 5, 6 и 7 вопроса №7. В этом вопросе описываются различные ситуации, возникающие на уроке. Пункты 3 и 6 связаны с эмоциональным состоянием ребенка на уроке и сформулированы следующим образом: «Как часто на уроке ты чувствуешь себя спокойно? » и «Как часто на уроке ты боишься, что тебя спросят? ». Пункты 5 и 7 определяют, на кого ориентирована учебная коммуникация ребенка на уроке. Они сформулированы следующим образом: «Как часто на уроке ты задаешь учителю вопрос, если тебе что-то непонятно? » и «Как часто на уроке ты споришь с ребятами, отстаивая свою точку зрения? ». И в «сильных», и в «слабых» школах учащиеся утверждают, что в абсолютном большинстве чувствуют себя на уроках спокойно (88-91%). При этом в «сильных» школах 82% детей не боятся, что их спросят. А в «слабых» школах только 25% детей никогда не боится, что их спросят, а остальные 75% либо иногда опасаются, либо боятся часто или всегда (по 20%). Очевидно, что этот ответ вступает в противоречие с пунктом 3.

Совершенно различно распределяются коммуникативные процессы на уроках в «сильных» и «слабых» школах. Если в «сильных» школах почти 95% учащихся отмечают, что редко обращаются к учителю, но при этом все спорят между собой (причем 82% делает это часто), то в «слабых» школах учебная коммуникация строится по-иному: до 50% детей часто обращается к учителю с вопросами и остальные 50% - редко. А часто спорят с одноклассниками менее 24% учащихся, еще 57% делает это редко и около 15% детей никогда не вступает в дискуссию с одноклассниками.

Важные моменты, характеризующие содержательную коммуникацию на уроке, представлены в шести пунктах вопроса №8. Вопрос сформулирован следующим образом: «Как часто на уроках ваши учителя:

- дают вам задания, и вы их молча выполняете?

- снижают отметку за небрежное оформление работы?

- задают вам вопросы для обсуждения всем классом?

- снижают отметку за плохое поведение?

- шутят?

- отвечают на ваши вопросы?

 

Ответы детей из «сильных» и «слабых» школ позволяют выявить различные содержательные акценты, которые делают учителя этих школ в организации взаимодействия с учащимися на уроке. Так, в пункте 1 дети из «слабых» школ видят очень знакомую ситуацию и отвечают «всегда» в 81% анкет (остальные 19% говорят «часто»). В «сильных» школах такая организация работы также принята, но ответ «всегда» дают менее 23% детей, еще 63% говорит «часто» и еще 13% считает, что такая форма работы используется учителями редко. Также о содержательных характеристиках организации взаимодействия на уроке говорят пункты 3 и 6. Ответы на пункт 3 в наших школах различаются степенью убежденности детей: если в «слабых» школах учащиеся выбирают ответ «всегда» лишь в 9% анкет, а остальные 91% говорит «часто», то в «сильных» школах ответы «всегда» и «часто» распределились в соотношении 41 и 59%. Т.е., почти половина учащихся «сильных» школ воспринимает такую форму работы как обязательную. Иная картина ответов представлена в пункте 6. По единодушному мнению детей из «сильных» школ учителя всегда отвечают на возникающие у них вопросы (96% ответов, и 4% - «часто»). В «слабых» школах также большинство учащихся выбирает ответ «всегда» - 61%, еще 23% считают, что это происходит часто, но есть и группа учащихся, которые не получают от учителей ответов на свои вопросы (они дали в анкете ответы «редко» и «никогда»).

Два пункта вопроса №8 касаются отметок (пункты 2 и 4). И здесь мы также видим существенные различия в полученных ответах учащихся. В «сильных» школах более 86% детей утверждают, что учителя либо вообще не снижают, либо редко снижают отметку за небрежное оформление работы. С ними согласны лишь 14% детей из «слабых» школ. А остальные 86% считают, что это нормальная практика оценивания (ответы «часто» и «всегда»). Что касается снижения отметки за поведение, то и в «сильных», и в «слабых» школах это не распространенная практика, с той лишь разницей, что в «слабых» школах все же присутствует некоторое количество детей (около 10%), которые считают, что такое имеет место в их школе, в то время как в «сильных» школах таких учащихся нет. Таким образом, ответы на этот вопрос позволяют реконструировать некоторые содержательные особенности организации учебной коммуникации, различающие школы, продемонстрировавшие высокие и низкие результаты в тестовых задачах.

Также показательны ответы на вопрос 11, в котором представлены различные ситуации на уроке, предполагающие совместную работу детей, как содержательную (пункты 1, 2 и 4), так и контрольно-оценочную (пункты 3 и 5). Вопрос сформулирован следующим образом: «Как часто вы используете на уроках следующие формы работы?

· обсуждаете всем классом новый материал?

· решаете задачи, разделившись на группы?

· проверяете работу друг друга?

· совместно ставите опыты и эксперименты?

· оценивает работу друг друга?

К каждому пункту вопроса для ответа предлагается выбор из четырех альтернатив: всегда/ часто/ редко/ никогда.

В «сильных» школах учащиеся ко всем пяти пунктам вопроса выбирают в качестве ответа только варианты «всегда» или «часто». Причем в первом пункте ответ «всегда» представлен почти в 90% анкет.

В «слабых» школах внутри классов получены удивительно противоречивые ответы на отдельные пункты этого вопроса, а также присутствуют явные противоречия и между пунктами. Так, в одном из классов на первый пункт вопроса 57% детей выбрали альтернативу «всегда», а более 28% - «никогда» или «редко». Т.е. чуть больше половины учащихся «обсуждает всем классом новый материал», а более четверти класса этого никогда не видели и не участвовали в обсуждении. Другое важное несоответствие проявилось между пунктами проверки и оценки работ друг друга. По мнению абсолютного большинства детей взаимные проверки происходят «редко» или «никогда», а оценивание чужой работы – «часто» (у 67% детей). Можно предположить, что если оценка не связана с анализом и проверкой, то она скорее всего носит формальный характер и ориентирована на учительские критерии.

Чтобы уточнить ситуацию с оценочной деятельностью, мы сопоставили ответы детей на пункт 5 вопроса 11 с ответами на вопрос №10. Он сформулирован следующим образом: «Как ты думаешь, оценка, которую тебе ставит учитель, больше соответствует твоим знаниям на данный момент:

· твоим успехам по сравнению с прежними результатами?

· твоей активности на уроке?

· ее отношению к тебе?

· твоему умению работать вместе с другими учениками?

· твоему умению организовать свою работу на уроке?

· твоим успехам по сравнению с другими учениками?

Учащиеся должны в качестве ответа выбрать не более трех из семи предложенных вариантов. Это, безусловно, содержательно трудный вопрос. И в «сильных», и в «слабых» школах первое место в рейтинге ответов заняла альтернатива №1 («знаниям на данный момент»), второе – альтернатива №3 («активности на уроке»). Однако остальные оценки получили совершенно различное распределение в «сильных» и «слабых» школах. Так, альтернатива №2 («успехи по сравнению с прежними результатами») в «сильных» школах стоит у учащихся на третьем месте по предпочтениям, а в «слабых» - на последнем. А альтернатива №4 («личное отношение педагога к ребенку»), практически не представленная в ответах детей из «сильных» школ (последнее место в рейтинге альтернатив), в ответах учащихся из «слабых» школ занимает высокое третье место.

По другим вопросам анкеты для учащихся также выявляются достаточно четкие различия в ответах учащихся школ, продемонстрировавших высокие результаты в решении батареи тестовых задач, и учащихся школ, показавших низкие результаты в тестировании. Это в целом показывает, что разработанный нами инструментарий решает задачу дифференциации тех качеств образовательной среды, которые значимо определяют успешность учащихся в тестировании. Однако, безусловно, в дальнейшем требуется проведение более детализированной и статистически выверенной аналитической работы с результатами анкетирования учащихся. Также важно сопоставление полученной в детских анкетах информации с данными других субъектов образовательной среды.

 

Заключение

 

Разработка средств измерения и оценки образовательных результатов занимает видное место в актуальной педагогической тематике. Однако быстрое и во многом успешное прогрессирование данного направления, показателем которого могут служить набирающие глубину и размах международные мониторинговые исследования, не должно заслонять тот факт, что указанная проблема на сегодня решается, во-первых, преимущественно на эмпирических основаниях, а во-вторых, с заметным уклоном в количественную сторону вопроса.

Такой подход имеет несомненные плюсы и диктуется самой практикой. Особенность современного этапа в деятельности образовательных систем состоит в необходимости «поспеть» за стремительными сдвигами в общественной жизни. В этой ситуации бега наперегонки со временем новаторский порыв в освоении горизонтов не может дожидаться результатов углубленных психолого-педагогических исследований. Свою несомненную продуктивность здесь демонстрирует оперативно действующая эмпирическая стратегия, опирающаяся на широкую экспертизу и математический аппарат статистики. Однако осваивая новые реалии и уходя вперед, практика постепенно отрывается от теории, и с какого-то момента ее дальнейшее продвижение становится все менее продуктивным, приводя к необходимости обновления системы содержательных качественных ориентиров.

Так, новый педагогический объект который с завидным чутьем был выявлен практиками и задал вектор модернизации образовательных систем, на данный момент явно нуждается в более тщательном осмыслении. Слово «компетенция», взятое напрокат из обиходного словаря и безусловно сыгравшее важную роль на современном этапе развития образования, должно быть преобразовано в научное понятие, т.е. занять место в системной психолого-педагогической картине, чтобы выступить основой дальнейших шагов в определении современных образовательных целей и соответствующей системы педагогической диагностики.

Попыткой продвинуться в этом направлении и стала наша работа в области оценки школьных достижений. Был очерчен теоретический подход к проблеме, намечен объект тестирования (учебно-предметные компетенции), определен его предмет (мера присвоения культурных средств и соответствующих им способов действия) и разработаны пробные образцы тестовых заданий, в которых количественный аспект показателей не подминал качественный. В ходе работы над этими образцами были сформулированы принципы построения тестовых материалов и уточнены критерии оценки их качества.

Созданный в рамках проекта тестовый комплект носит экспериментальный характер и пока не полностью отвечает требованиям, предъявляемым к средствам измерения школьной успешности. В перспективе планируется несколько линий его доработки, связанных с дальнейшим повышением надежности и технологичности инструмента, а также проведение более тщательной апробации и всесторонней экспертизы.

Вместе с тем можно констатировать, что поставленная нами задача создания инструментария содержательно-нормативной педагогической диагностики находится на пути к решению. При этом мы полагаем, что данная разработка удерживает существенный аспект компетентностного подхода, который воплощают прогрессивные тестовые инструменты международного употребления.

Апробация показала, что разработанный трехуровневый измерительный инструмент вносит в картину результатов тестирования объемность, дающую важную фактическую информацию для учителя и администратора школы. Так, профили успешности, вскрывающие внутреннюю, скрытую динамику освоения детьми учебного материала, можно трактовать как одну из возможных конкретизаций широко употребляемого понятия «индивидуальной образовательной траектории». Как бы то ни было, но именно в «профильном» развороте, где персональные достижения учащихся обнаружили качественное разнообразие, акт присвоения культурного содержания выступил в своей индивидуализированной форме.

Предлагаемая в работе система тестирования обладает достаточной гибкостью и потенциально предназначается как для итоговой констатации результатов образовательного процесса, так и для мониторинга прогресса учащихся на протяжении учебы в начальной школе. При этом результаты тестирования можно будет использовать как для оценки индивидуальной успешности учащихся, так и для определения групповых итогов обучения. В свою очередь, указанные возможности, позволяющие объективным образом и в существенных определениях фиксировать и рефлектировать педагогический опыт, представляют главное условие совершенствования образовательного процесса, т.е. его превращение в развивающееся образование.

Важно отметить, что описанный подход к измерению школьной успешности оставляет возможности свертывания объемной картины результатов тестирования в точку, которой может быть приписано количественное значение. На данный момент мы не ставили перед собой задачу подбора или создания математического аппарата, позволяющего интегрировать результаты тестирования в балльной оценке: нас прежде всего интересовал вопрос отнесения этих результатов к нормативному качественному критерию (культурной норме). Однако интегральный взгляд на школьную успешность также важен, и при первой возможности мы обратимся к поиску соответствующего метода обработки данных. Одномерная характеристика, отнесенная к статистической норме, может оказаться удобной для решения некоторых управленческих задач и, возможно, окажется полезной в контексте аттестации школьных успехов. Кроме того, интегрирование получаемых результатов открыло бы перспективу их сопоставления с данными международных исследований, проводимых на той же выборке, а в итоге - возможность прогнозировать результаты международных срезов на основе использования собственного инструментария.

Проблема применимости средств тестирования имеет еще один важный ракурс, как правило игнорируемый тестологами. А именно, применение тестового инструмента характеризуется еще тем, в каком отношении к нему находятся те, кто прямо или косвенно оказываются объектом измерения и оценки. Здесь следует прежде всего назвать учащихся, которые могут понимать, а могут не понимать, с каким инструментом они имеют дело и как это соотносится с акцентами их учебной практики. То же можно сказать об учителе и администраторе школы, которые могут представлять, а могут и не представлять, как устроен тест и чего им ожидать от очередного обследования.

Напомним, что в обследованиях TIMSS, PIRLS и PISA ситуация для учителей была крайне неопределенной. Даже теперь, когда участие России в этих проектах насчитывает несколько лет, результаты очередного обследования ожидаются так, как ждут итогов розыгрыша лотереи. И в свете этого опыта отечественная разработка, основанная на заявленной модели образовательного процесса, обнаруживает определенные преимущества перед международными образцами. Так, учителя воспринимают ее как понятный инструмент организации образовательного процесса и, примерно представляя будущие результаты, не опасаются его, более того - заинтересованы в тестировании, поскольку могут осмысленно воспользоваться полученными данными.

Что касается школьников, то весьма обнадеживающим представляется любопытный факт, касающийся реакции детей на уровневое представление учебного материала. Так, в одном из начальных классов учитель явным для детей образом ввел различение задач в соответствии с трехуровневой схемой и давал на дом задачи с обозначением их уровня, т.е. объективной трудности. Ответом на это было неожиданное для педагога резкое усиление у детей мотивации к решению задач и к занятию математикой вообще. Этот факт лишний раз свидетельствует о том, что любые моменты, обеспечивающие ориентацию ребенка в существенных условиях учебного процесса, выступают опорой для проявлений его субъектности и как следствие актуализируют дотоле скрытые источники мотивации к учению.

Подводя итог, следует еще раз подчеркнуть, что на данный момент разработанная нами измерительная методика не является диагностической, а всего лишь несет в себе потенцию стать таковой. Так, ключевой вопрос - об определении принципов психолого-педагогической интерпретации получаемых профилей – остается пока практически не решенным. Очевидно, что ответ на него потребует обращения к проблеме становления компетенций в возрастном аспекте и проведения соответствующих психолого-педагогических исследований. Выступая средством объективной фиксации результатов исследовательской и педагогической деятельности, насыщаясь опытом этой деятельности, инструмент и получит реальную возможность превратиться в средство содержательно-нормативной диагностики.

 

 

Литература

 

Ахутин А.В. История принципов физического эксперимента. М., 1976

Бахтин М.М. Эстетика словесного творчества. М., 1979

Беспалько В.П. Образование и обучение с участием компьютеров (педагогика

третьего тысячелетия). Москва–Воронеж, 2002

Болотов В.А., Сериков В.В. Компетентностная модель: от идеи к образовательной

программе // Педагогика. 2003. № 10

Бугрименко Е.А., Микулина Г.Г., Савельева О.В., Цукерман Г.А. Руководство

по оценке качества математических и лингвистических знаний школьников. М., 1989

Валлон А. Психическое развитие ребенка. М., 1967

Венгер А.Л. и др. Программа «Развитие» (Основные положения). М., 1994

Выготский Л.С. Собр. соч.: В 6 т. М., 1982–1984

Гальперин П.Я. К исследованию интеллектуального развития ребенка // Вопросы психологии. 1969, № 1

Гальперин П.Я. Психология как объективная наука. М., 1998

Гузеев В.В. Планирование результатов образования и образовательная технология. М., 2001

Гуружапов В.А. К вопросу о предметной диагностике теоретического мышления детей в развивающем обучении (система Д.Б.Эльконина – В.В.Давыдова) // Психологическая наука и образование. 1997. №4

Давыдов В.В. Теория развивающего обучения. М., 1996

Давыдов В.В., Андронов В.П. Психологические условия происхождения идеальных действий //Вопросы психологии, 1979, № 5

Дахин А.Н. Педагогический мониторинг: концепция и применение // Школьные технологии. 1997. № 3

Дидактика средней школы. М., 1982

Зеер Э.Ф. Психологодидактические конструкты качества профессионального образования // Образование и наука. 2002. № 2(14)

Зимняя И.А. Ключевые компетенции — новая парадигма результата образования // Высшее образование сегодня. 2003. № 5

Знаменская О.В. и др. Мониторинг индивидуального прогресса учащихся — новый подход к диагностике достижений // Как узнать, что происходит в образовании. М. 2006

Исаев Е.И. Психологическая характеристика способов планирования у младших школьников // Вопросы психологии, 1983, № 2

Исследования IAEPII. International Assessment of Educational Progress. 1991 < centeroko.ru/iaep/iaep.htm> .

Кальней В.А., Шишов С.Е. Мониторинг качества образования в школе. Шишов С.Е. // Стандарты и мониторинг в образовании. 1999. № 4

Каспржак А.Г. и др. Новые требования к содержанию и методике обучения в российской школе в контексте результатов международного исследования PISA2000. М.: Университетская книга, 2005

Каспржак А.Г. Российская школа: от PISA2000 к PISA2003 / Под ред.

К.Н. Поливановой. М., 2006

Качество знаний учащихся и пути его совершенствования / Под ред. М.Н. Скаткина, В.В.Краевского. М.: Педагогика, 1978

Ковалева Г.С. Основные тенденции изменения подходов к оценке результатов обучения в странах мира // На пути к 12летней школе. М., 2000

Краснянская К.А., Денищева Л.О. Международное исследование по оценке качества математической подготовки (TIMSS) // Школьные технологии. 1997. № 3–4

Ковалева Г.С. и др. Изучение знаний и умений учащихся в рамках Международной

программы PISA. Общиеподходы // ИОСО РАО, 1999

Ковалева Г.С. и др. Основные результаты международного исследования образовательных достижений учащихся PISA2000 (краткий отчет). М., 2002а

Ковалева Г.С. и др. Оценки знаний и умений. Международная программа PISA. Педагогическая диагностика. 2002б. № 1

Кудина Г.Н., Новлянская З.Н. Курс «Литература как предмет эстетического цикла» в системе развивающего обучения. «Вопросы психологии». № 4. 2005.

Кудина Г.Н., Новлянская З.Н. Методическое пособие к учебнику «Литературное чтение» для 2-го класса начальной школы. М.: ОНИКС21 век. Дом педагогики. 2002 г.

Кудина Г.Н., Новлянская З.Н. Основные принципы и методы экспериментального курса «Литература как предмет эстетического цикла» // Психологическая наука и образование. 1996. № 4.

Куревина Щ.Ф., Петерсон Л.Г. Концепция образования: современный взгляд. М., 1999

Левин К. Динамическая психология: Избранные труды. М., 2001

Леднев В.С., Никандров Н.Д., Рыжаков М.В. Государственные образовательные

стандарты в системе общего образования: теория и практика. М., 2002

Леонтьев А.Н., Запорожец А.В. Восстановление движений. Психофизиологическое исследование восстановления функций руки после ранения. М., 1945

Лернер И.Я. Качества знаний учащихся. Какими они должны быть. М., 1978

Лернер И.Я. Процесс обучения и его закономерности. М., 1980

Лернер И.Я. Прогностическая концепция целей и содержания образования / Под ред. И.К. Журавлева. М.: 1994

Магкаев В.Х. Теоретические предпосылки построения метода исследования и объективно-нормативной диагностики развития основ рефлексивного мышления // Развитие основ рефлексивного мышления школьников в процессе учебной деятельности // Под. ред. В.В.Давыдова, В.В.Рубцова. Новосибирск, 1995.

Магкаев В.Х. Экспериментальное изучение планирующей функции мышления в младшем школьном возрасте // Вопросы психологии, 1974, № 5

Майоров А.Н. Теория и практика создания тестов для системы образования. М., 2000.

Макарова Т.Д. и др. Итоговое тестирование. Дидактика 2000. М.: Педагогическое

общество России. 1999

Максимов Л.К. Формирование математического мышления у младших

школьников. М., 1987.

Мальцев А.В. Тестовая технология контроля знаний. Екатеринбург,

Микулина Г.Г., Савельева О.В. К психологической оценке качества знаний у младших школьников // Психологическая наука и образование. 1997. № 2

Микулина Г.Г., Савельева О.В. Способы проверки качества усвоения математических знаний // Руководство по оценке качества математических и лингвистических знаний школьников. Методические разработки. М., 1989

Михайленко Н.Я., Короткова Н.А. Модель организации образовательного процесса в старших группах детского сада // Дошкольное воспитание. 1995. № 9.

Михайлычев Е.А. Моделирование дидактического теста. Проблемы технологии // Школьные технологии. 1996. № 6

Нежнов П.Г. Опосредствование и спонтанность в теоретической картине развития: Педагогика развития: образовательные интересы и их субъекты // Материалы 11й научно-практической конференции. Красноярск, 2005

Нежнов П.Г. Опосредствование и спонтанность в модели «культурного развития» //

Вестн.Моск.Ун-та. Серия 14. Психология. 2007, № 1 (Специальный выпуск: 40 лет факультету психологии МГУ)

Нежнов П.Г. Функциональное поле как целевой ориентир в развивающем обучении // Материалы Всерос. научно-практич. конф. «Культ.-ист. теория Л.С.Выготского и основания современной психологии развития» (Москва 14-16 апреля 2005). М., 2005

Нежнов П.Г., Медведев А.М. Метод исследования содержательного анализа у школьников // Вестник Моск. Ун-та. Серия 14, Психология. 1988, № 2

Основные результаты международного исследования качества математического и естественнонаучного образования TIMSS 2003. М., 2004

Оценка результатов в области образования. СИТО. Национальный институт по оценке достижений в области образования. Амхем, Нидерланды, 1995

Пиаже Ж. Избранные психологические труды. М., 1969

Поливанова К.Н. Психология возрастных кризисов. М., 2000

Полуаршинова Е.Г. Тесты как средство контроля качества подготовки учащихся: Автореф. дисс. канд. пед. наук. М., 1998

Равен, Джон. Педагогическое тестирование: проблемы, заблуждения, перспективы. М., 2001

Рыжаков М.В. Ключевые компетенции в стандарте: возможности реализации // Стандарты и мониторинг в образовании. 1999. № 4

Савельева О.В. Психологические критерии качества знаний младших школьников // Автореф… дисс. канд. пед. наук. М., 1989

Селезнева Н.А. Размышления о качестве образования: международный аспект // Высшее образование сегодня. 2004. № 4

Симонов В.П. Диагностика степени обученности учащихся: Учебно-справочное пособие. М., 1999

Симонов В.П. Директору школы об управлении учебно-воспитательным процессом. М., 1987

Современная дидактика: теория — практике // Под ред. И.Я. Лернера, И.К. Журавлева. М., 1994

Стоунс Э. Психопедагогика. Психологическая теория и практика обучения. М., 1984

Талызина Н.Ф. Теоретические проблемы программированного обучения. М., 1969

Талызина Н.Ф. Управление процессом усвоения знаний. М., 1975

Фрумин И.Д. Компетентностный подход как естественный этап обновления содержания образования // Педагогика развития: ключевые компетентности и их становление. Красноярск, 2003

Фрумин И.Д., Башев В.В. Проблемно рефлексивный подход в изучении обществознания. М., 2002

Фрумин И.Д. и др. Оценка качества образования: обзор международных подходов и тенденций. М., 2005

Холстед М., Орджи Т. Ключевые компетенции в системе оценки Великобритании: Современные подходы к компетентностно ориентированному образованию // Материалы семинара. Самара, 2001

Хуторской А.В. Ключевые компетенции и образовательные стандарты. // Доклад на отделении философии образования и теории педагогики РАО 23 апреля 2002. Центр «Эйдос». www/eidos.ru/news/compet/htm

Цукерман Г.А. Виды общения в обучении. Томск, 1993

Цукерман Г.А. Переход из начальной школы в среднюю как психологическая проблема // Вопросы психологии, 2001. № 5

Цукерман Г.А. Развивающие эффекты системы Б.Д. Эльконина–В.В. Давыдова // Психологическая наука и образование. 2003. № 4

Шишов С.Е. Образовательные стандарты в странах Западной Европы и США: В сб.: Актуальные проблемы стандартизации образования // Под ред. Ю.И. Кривова. Пенза, 1997

Шишов С.Е. Понятие компетенции в контексте качества образования // Стандарты и мониторинг в образовании. 1999. № 2

Шишов С.Е., Кальней В.А. Школа: мониторинг качества образования. М., 2000

Эльконин Б.Д. Педагогика развития: проба как конструкт образовательной системы // В кн.: Педагогика развития: ключевые компетентности и их становление. Красноярск, 2003

Эльконин Б.Д. Избранные психологические труды. М., 1989

Anderson, L.W., & Krathwohl (Eds.). (2001). A Taxonomy for Learning, Teaching, and Assessing: A Revision of Bloom’s Taxonomy of Educational Objectives. New York: Longman

Ashman A., Ashman A.F., Conway R.N.F. An Introduction to Cognitive Education: Theory and Applications. London: Routledge, 1997

Bamett R. (1994). The limits of Competence. Knowledge, Higher Education and Society. Buckinham, UK: Open University Press

Bloom, Benjamin (Ed.) A Taxonomy of Educational Objectives, Handbook 1: Cognitive Domain. New York: David McKay, 1956

Bloom, B., Englehart, M. Furst, E., Hill, W., & Krathwohl, D. (1956). Taxonomy of educational objectives: The classification of educational goals. Handbook I: Cognitive domain. New York, Toronto: Longmans, Green

Bloom B.S., Hasting J.T. & Madaus G.F. Handbook on Formative and Summative Evaluation of Student Learning. New York: McGrawHill, 1971

Bredecamp Sue, Copple Carol (Ed.) Developmentally Appropriate Practice in Early Childhood Programs. NAEYC. Washington, 1997

Commission Staff Working Paper. New Indicators on Education and Training // Commission of the European Communities // Brussels, 2004

Definition and Selection of Competencies (DeSeCo): Theoretical and Conceptual Foundations. Strategy Paper. (2002) www.deseco.admin.ch

Holmes L. Decontaminating the concepts of “learning” and “competence”: education and modalities of emergent identity // Second International Conference on Critical Management Studies. Manchester, 2001

Huitt, W. (1992). Problem solving and decision making: Consideration of individual differences using the Myers Briggs Type Indicator. Journal of Psychological Type, 24, 33–44. Retrieved June 2004, from < http: //chrion. valdosta.edu/whuitt//papers/prbsmbti.html>

Hutmacher Walo. Key competencies for Europe // Report of the Symposium Berne, Switzerland 27–30 March, 1996. Council for Cultural Cooperation (CDCC) a // Secondary Education for Europe. Strasburg. 1997

OCR Recognising Achievement. Oxford Cambridge and RSA Examinations. Key Competences 2000 Program (2000)

Martin M.O., MullisI.V.S., Gonzalez, E.J., Kennedy A.M. Trends in Children’s Reading Literacy Achievement 1991–2001. Timss & PIRLS International Study Center, 2003

Mullis I.V.S., Kennedy A.M., Martin M.O., Sainsbury M. PIRLS 2006. Assessment

Framework and Specifications. Progress in International Reading Literacy Study. TIMSS & PIRLS International Study Center, 2004a

Mullis I.V.S., Martin M.O., Gonzalez E.J., Chrostovski S.J. TIMSS 2003 International Mathematics Report. TIMSS & PIRLS International Study Center, 2004b

Qualitative study of schools with outstanding results in seven Latin American countries. UNESCO. Santiago de Chile, 2002

Knowledge and skills for life. First results from PISA 2000. Executive summary. OECD, 2001

Measuring student knowledge and skills. A new Framework for Assessment. OECD, 1999

Reinikainen P. (2003). Brief Presentation of Science in TIMSS and PISA. < www.pisa.oecd.org>

Rychen D.S., Salganik L. (Eds.). Defining and Selecting Key Competencies. Bern,

2001.

Rychen D.S., Salganik L.H. Definition and Selection of Competencies (DeSeCo): Theoretical and Conceptual Foundations. Strategy Paper: an Overarching Frame of Reference for a Coherent Assessment and Research Program on Key Competencies. — < www.deseco.admin.ch>

The Definition and Selection of Competencies // Executive Summary. (2005). < www.deseco.admin.ch>

Westera W. (2001). Competence in Education // J. Curriculum Studies. Vol. 33. № 1

 

 

ПРИЛОЖЕНИЕ 1

Таксономии образовательных целей


Поделиться:



Последнее изменение этой страницы: 2017-05-11; Просмотров: 618; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.101 с.)
Главная | Случайная страница | Обратная связь